

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Migration
<a name="migration-pattern-list"></a>

**Topics**
+ [Erstellen Sie CloudFormation AWS-Vorlagen für AWS DMS-Aufgaben mit Microsoft Excel und Python](create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel-and-python.md)
+ [Beginnen Sie mit der automatisierten Portfolioerkennung](get-started-with-automated-portfolio-discovery.md)
+ [Migrieren Sie lokale Cloudera-Workloads zur Cloudera Data Platform auf AWS](migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws.md)
+ [Verbindungsfehler nach der Migration von Microsoft SQL Server zur AWS-Cloud beheben](resolve-connection-errors-after-migrating-microsoft-sql-server-to-the-aws-cloud.md)
+ [Starten Sie den AWS Replication Agent SELinux nach dem Neustart eines RHEL-Quellservers automatisch neu, ohne ihn zu deaktivieren](restart-the-aws-replication-agent-automatically-without-disabling-selinux-after-rebooting-a-rhel-source-server.md)
+ [Re-Architekt](migration-rearchitect-pattern-list.md)
+ [Erneut hosten](migration-rehost-pattern-list.md)
+ [Umziehen](migration-relocate-pattern-list.md)
+ [Plattformwechsel](migration-replatform-pattern-list.md)
+ [Migrationsmuster nach Arbeitslast](migration-migration-patterns-by-workload-pattern-list.md)
+ [Mehr Muster](migration-more-patterns-pattern-list.md)

# Erstellen Sie CloudFormation AWS-Vorlagen für AWS DMS-Aufgaben mit Microsoft Excel und Python
<a name="create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel-and-python"></a>

*Venkata Naveen Koppula, Amazon Web Services*

## Zusammenfassung
<a name="create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel-and-python-summary"></a>

Dieses Muster beschreibt die Schritte zur automatischen Erstellung von CloudFormation AWS-Vorlagen für [AWS Database Migration Service](https://aws.amazon.com/dms/) (AWS DMS) mit Microsoft Excel und Python.

Die Migration von Datenbanken mithilfe von AWS DMS beinhaltet häufig die Erstellung von CloudFormation AWS-Vorlagen zur Bereitstellung von AWS DMS-Aufgaben. Bisher waren für die Erstellung von CloudFormation AWS-Vorlagen Kenntnisse der Programmiersprache JSON oder YAML erforderlich. Mit diesem Tool benötigen Sie nur Grundkenntnisse in Excel und in der Ausführung eines Python-Skripts über ein Terminal oder ein Befehlsfenster.

Als Eingabe verwendet das Tool eine Excel-Arbeitsmappe, die die Namen der zu migrierenden Tabellen, Amazon-Ressourcennamen (ARNs) von AWS-DMS-Endpunkten und AWS-DMS-Replikationsinstanzen enthält. Das Tool generiert dann CloudFormation AWS-Vorlagen für die erforderlichen AWS DMS-Aufgaben.

Ausführliche Schritte und Hintergrundinformationen finden Sie im Blogbeitrag [ CloudFormation AWS-Vorlagen für AWS-DMS-Aufgaben mithilfe von Microsoft Excel erstellen](https://aws.amazon.com/blogs/database/create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel/) im AWS-Datenbank-Blog.

## Voraussetzungen und Einschränkungen
<a name="create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel-and-python-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Microsoft Excel Version 2016 oder höher
+ Python-Version 2.7 oder höher
+ Das Python-Modul **xlrd** (installiert an einer Befehlszeile mit dem Befehl: **pip install** xlrd)
+ AWS-DMS-Quell- und Zielendpunkte und AWS-DMS-Replikationsinstanz

**Einschränkungen**
+ Die Namen von Schemas, Tabellen und zugehörigen Spalten werden an den Zielendpunkten in Kleinbuchstaben umgewandelt.
+ Dieses Tool befasst sich nicht mit der Erstellung von AWS DMS-Endpunkten und Replikationsinstanzen.
+ Derzeit unterstützt das Tool nur ein Schema für jede AWS DMS-Aufgabe.

## Architektur
<a name="create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel-and-python-architecture"></a>

**Quelltechnologie-Stack**
+ Eine lokale Datenbank
+ Microsoft Excel

**Zieltechnologie-Stack**
+  CloudFormation AWS-Vorlagen
+ Eine Datenbank in der AWS-Cloud 

**Architektur**

![\[Workflow zur Verwendung von Excel und Python zur automatischen Erstellung von CloudFormation Vorlagen für AWS DMS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/778c7c1e-2647-496f-8afd-52ff1ef02489/images/8fe1550d-8966-41aa-a480-5f7bef20629f.png)


## Tools
<a name="create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel-and-python-tools"></a>
+ [Pycharm IDE](https://aws.amazon.com/pycharm/) oder jede integrierte Entwicklungsumgebung (IDE), die Python Version 3.6 unterstützt
+ Microsoft Office 2016 (für Microsoft Excel)

## Epen
<a name="create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel-and-python-epics"></a>

### Konfiguration des Netzwerks, der AWS-DMS-Replikationsinstanz und der Endpunkte
<a name="configure-the-network-aws-dms-replication-instance-and-endpoints"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Beantragen Sie bei Bedarf eine Erhöhung der Servicequote. | Fordern Sie bei Bedarf eine Erhöhung des Servicekontingents für die AWS DMS-Aufgaben an. | Allgemeines AWS | 
| Konfigurieren Sie die AWS-Region, virtuelle private Clouds (VPCs), CIDR-Bereiche, Availability Zones und Subnetze. |  | Allgemeines AWS | 
| Konfigurieren Sie die AWS DMS-Replikationsinstanz. | Die AWS DMS-Replikationsinstanz kann sich sowohl mit lokalen als auch mit AWS-Datenbanken verbinden. | Allgemeines AWS | 
| Konfigurieren Sie AWS DMS-Endpunkte. | Konfigurieren Sie Endpunkte sowohl für die Quell- als auch für die Zieldatenbank. | Allgemeines AWS | 

### Bereiten Sie die Arbeitsblätter für AWS DMS-Aufgaben und -Tags vor
<a name="prepare-the-worksheets-for-aws-dms-tasks-and-tags"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie die Tabellenliste. | Listet alle an der Migration beteiligten Tabellen auf. | Datenbank | 
| Bereiten Sie das Arbeitsblatt mit den Aufgaben vor. | Bereiten Sie das Excel-Arbeitsblatt anhand der von Ihnen konfigurierten Tabellenliste vor. | Allgemein AWS, Microsoft Excel | 
| Bereiten Sie das Tag-Arbeitsblatt vor. | Erläutern Sie die AWS-Ressourcen-Tags, die an die AWS DMS-Aufgaben angehängt werden sollen. | Allgemein AWS, Microsoft Excel | 

### Laden Sie das Tool herunter und führen Sie es aus
<a name="download-and-run-the-tool"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie das Tool zur Vorlagengenerierung herunter und extrahieren Sie es aus dem GitHub Repository. | GitHub Repository: https://github.com/aws-samples/dms-cloudformation-templates-generator/ |  | 
| Führen Sie das Tool aus. | Folgen Sie den detaillierten Anweisungen im Blogbeitrag, der unter „Referenzen und Hilfe“ aufgeführt ist. |  | 

## Zugehörige Ressourcen
<a name="create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel-and-python-resources"></a>
+ [ CloudFormation AWS-Vorlagen für AWS DMS-Aufgaben mit Microsoft Excel erstellen (Blogbeitrag)](https://aws.amazon.com/blogs/database/create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel/)
+ [Generator CloudFormation für DMS-Vorlagen (Repository) GitHub ](https://github.com/aws-samples/dms-cloudformation-templates-generator/tree/v1.0)
+ [Python-Dokumentation](https://www.python.org/)
+ [XLRD-Beschreibung und Download](https://pypi.org/project/xlrd/)
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/)
+ [ CloudFormation AWS-Dokumentation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/)

# Beginnen Sie mit der automatisierten Portfolioerkennung
<a name="get-started-with-automated-portfolio-discovery"></a>

*Pratik Chunawala und Rodolfo Jr. Cerrada, Amazon Web Services*

## Zusammenfassung
<a name="get-started-with-automated-portfolio-discovery-summary"></a>

Die Bewertung des Portfolios und das Sammeln von Metadaten sind eine entscheidende Herausforderung bei der Migration von Anwendungen und Servern in die Amazon Web Services (AWS) Cloud, insbesondere bei großen Migrationen mit mehr als 300 Servern. Mithilfe eines automatisierten Portfolio-Discovery-Tools können Sie Informationen über Ihre Anwendungen sammeln, z. B. die Anzahl der Benutzer, die Nutzungshäufigkeit, Abhängigkeiten und Informationen über die Infrastruktur der Anwendung. Diese Informationen sind für die Planung von Migrationswellen unerlässlich, damit Sie Anwendungen mit ähnlichen Merkmalen richtig priorisieren und gruppieren können. Die Verwendung eines Discovery-Tools optimiert die Kommunikation zwischen dem Portfolio-Team und den Anwendungseigentümern, da das Portfolio-Team die Ergebnisse des Discovery-Tools validieren kann, anstatt die Metadaten manuell zu sammeln. In diesem Muster werden die wichtigsten Überlegungen zur Auswahl eines automatisierten Discovery-Tools sowie Informationen zur Bereitstellung und zum Testen eines Tools in Ihrer Umgebung erläutert.

Dieses Muster enthält eine Vorlage, die als Ausgangspunkt für die Erstellung Ihrer eigenen Checkliste mit Aktivitäten auf hoher Ebene dient. Neben der Checkliste befindet sich eine Vorlage für eine Matrix für verantwortungsvolle, rechenschaftspflichtige, konsultierte und informierte Informationen (RACI). Sie können diese RACI-Matrix verwenden, um zu bestimmen, wer für jede Aufgabe in Ihrer Checkliste verantwortlich ist.

## Epen
<a name="get-started-with-automated-portfolio-discovery-epics"></a>

### Wählen Sie ein Discovery-Tool
<a name="select-a-discovery-tool"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie fest, ob ein Discovery-Tool für Ihren Anwendungsfall geeignet ist. | Ein Discovery-Tool ist möglicherweise nicht die beste Lösung für Ihren Anwendungsfall. Berücksichtigen Sie den Zeitaufwand, der für die Auswahl, Beschaffung, Vorbereitung und Bereitstellung eines Discovery-Tools erforderlich ist. Es kann 4 bis 8 Wochen dauern, die Scan-Appliance für ein agentenloses Erkennungstool in Ihrer Umgebung einzurichten oder Agenten für alle im Lieferumfang enthaltenen Workloads zu installieren. Nach der Bereitstellung müssen Sie 4—12 Wochen einplanen, bis das Discovery-Tool Metadaten erfasst, indem es die Anwendungs-Workloads scannt und eine Anwendungs-Stack-Analyse durchführt. Wenn Sie weniger als 100 Server migrieren, können Sie die Metadaten möglicherweise schneller manuell sammeln und Abhängigkeiten analysieren, als dies für die Bereitstellung und Erfassung von Metadaten mit einem automatisierten Erkennungstool erforderlich ist.  | Migrationsleiter, Migrationsingenieur | 
| Wählen Sie ein Discovery-Tool aus. | Lesen Sie die **Überlegungen zur Auswahl eines automatisierten Discovery-Tools** im Abschnitt [Zusätzliche Informationen](#get-started-with-automated-portfolio-discovery-additional). Ermitteln Sie die geeigneten Kriterien für die Auswahl eines Discovery-Tools für Ihren Anwendungsfall und bewerten Sie dann jedes Tool anhand dieser Kriterien. Eine umfassende Liste automatisierter Discovery-Tools finden Sie unter [Tools für die Migration von Discovery, Planning und Recommendation](https://aws.amazon.com/prescriptive-guidance/migration-tools/migration-discovery-tools/). | Migrationsleiter, Migrationsingenieur | 

### Bereiten Sie sich auf die Installation vor
<a name="prepare-for-installation"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie die Checkliste vor der Bereitstellung vor.  | Erstellen Sie eine Checkliste mit den Aufgaben, die Sie vor der Bereitstellung des Tools ausführen müssen. Ein Beispiel finden Sie in der [Checkliste vor der Bereitstellung](https://docs.flexera.com/foundationcloudscape/ug/Content/helplibrary/FCGS_Predeployment.htm) auf der Flexera Dokumentationswebsite. | Leiter der Entwicklung, Migrationsingenieur, Migrationsleiter, Netzwerkadministrator | 
| Bereiten Sie die Netzwerkanforderungen vor. | Stellen Sie die Ports, Protokolle, IP-Adressen und das Routing bereit, die für die Ausführung des Tools und den Zugriff auf die Zielserver erforderlich sind. Weitere Informationen finden Sie in der Installationsanleitung für Ihr Discovery-Tool. Ein Beispiel finden Sie unter [Deployment Requirements](https://docs.flexera.com/foundationcloudscape/help/RCDeployReq.htm) auf der Flexera-Dokumentationswebsite. | Migrationsingenieur, Netzwerkadministrator, Cloud-Architekt | 
| Bereiten Sie die Anforderungen für das Konto und die Anmeldeinformationen vor. | Identifizieren Sie die Anmeldeinformationen, die Sie für den Zugriff auf die Zielserver und die Installation aller Komponenten des Tools benötigen. | Cloud-Administrator, AWS allgemein, Migrationsingenieur, Migrationsleiter, Netzwerkadministrator, AWS-Administrator | 
| Bereiten Sie die Appliances vor, auf denen Sie das Tool installieren werden. | Stellen Sie sicher, dass die Appliances, auf denen Sie die Toolkomponenten installieren, die Spezifikationen und Plattformanforderungen für das Tool erfüllen. | Migrationsingenieur, Migrationsleiter, Netzwerkadministrator | 
| Bereiten Sie die Änderungsaufträge vor. | Bereiten Sie entsprechend dem Änderungsmanagementprozess in Ihrer Organisation alle erforderlichen Änderungsaufträge vor und stellen Sie sicher, dass diese Änderungsaufträge genehmigt werden. | Leitung aufbauen, Leitung für Migration | 
| Senden Sie Anforderungen an die Beteiligten. | Senden Sie die Checkliste vor der Bereitstellung und die Netzwerkanforderungen an die Beteiligten. Die Beteiligten sollten die erforderlichen Anforderungen überprüfen, bewerten und vorbereiten, bevor sie mit der Bereitstellung fortfahren. | Leitung aufbauen, Leitung Migration | 

### Stellen Sie das Tool bereit
<a name="deploy-the-tool"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie das Installationsprogramm herunter. | Laden Sie das Installationsprogramm oder das Image der virtuellen Maschine herunter. Images virtueller Maschinen werden normalerweise im Open Virtualization Format (OVF) geliefert. | Führung beim Aufbau, Leitung bei der Migration | 
| Extrahieren Sie die Dateien. | Wenn Sie ein Installationsprogramm verwenden, müssen Sie das Installationsprogramm herunterladen und auf einem lokalen Server ausführen. | Leiter für Aufbau, Migration | 
| Stellen Sie das Tool auf den Servern bereit. | Stellen Sie das Discovery-Tool auf den lokalen Zielservern wie folgt bereit:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/get-started-with-automated-portfolio-discovery.html) | Leiter für den Aufbau, Leiter der Migration, Netzwerkadministrator | 
| Melden Sie sich beim Discovery-Tool an. | Folgen Sie den Anweisungen auf dem Bildschirm und melden Sie sich an, um mit dem Tool zu beginnen. | Leiter der Migration, Aufbau eines Vorhabens | 
| Aktivieren Sie das Produkt. | Geben Sie Ihren Lizenzschlüssel ein. | Lead aufbauen, Lead Migration | 
| Konfigurieren Sie das Tool. | Geben Sie alle Anmeldeinformationen ein, die für den Zugriff auf die Zielserver erforderlich sind, z. B. Anmeldeinformationen für Windows VMware, Simple Network Management Protocol (SNMP) und Secure Shell Protocol (SSH) oder Datenbanken. | Leitung beim Aufbau, Leitung bei der Migration | 

### Testen Sie das Tool
<a name="test-the-tool"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Wählen Sie Testserver aus. | Identifizieren Sie eine kleine Gruppe von Subnetzen oder IP-Adressen, die Sie verwenden können, um das Discovery-Tool zu testen. Auf diese Weise können Sie die Scans schnell validieren, Fehler schnell identifizieren und beheben und Ihre Tests von Produktionsumgebungen isolieren. | Leiter Aufbau, Leiter Migration, Netzwerkadministrator | 
| Starten Sie das Scannen der ausgewählten Testserver. | Geben Sie bei einem Agentenlosen Discovery-Tool die Subnetze oder IP-Adressen für die ausgewählten Testserver in die Discovery-Tool-Konsole ein und starten Sie den Scan.Bei einem Agent-basierten Discovery-Tool installieren Sie den Agenten auf den ausgewählten Testservern. | Leiter für Aufbau, Migration, Netzwerkadministrator | 
| Überprüfen Sie die Scanergebnisse. | Überprüfen Sie die Scanergebnisse für die Testserver. Wenn Fehler gefunden werden, führen Sie eine Problembehandlung durch und beheben Sie die Fehler. Dokumentieren Sie die Fehler und Lösungen. Sie verweisen in future auf diese Informationen und können diese Informationen zu Ihrem Portfolio-Runbook hinzufügen. | Leiter Aufbau, Leiter Migration, Netzwerkadministrator | 
| Scannen Sie die Testserver erneut. | Sobald der erneute Scan abgeschlossen ist, wiederholen Sie den Scan, bis keine Fehler mehr vorliegen. | Leiter für den Aufbau, Leiter der Migration, Netzwerkadministrator | 

## Zugehörige Ressourcen
<a name="get-started-with-automated-portfolio-discovery-resources"></a>

**AWS Ressourcen**
+ [Leitfaden zur Bewertung des Anwendungsportfolios für die AWS Cloud Migration](https://docs.aws.amazon.com/prescriptive-guidance/latest/application-portfolio-assessment-guide/introduction.html)
+ [Tools zur Erkennung, Planung und Empfehlung der Migration](https://aws.amazon.com/prescriptive-guidance/migration-tools/migration-discovery-tools/)

**Bereitstellungsleitfäden für häufig verwendete Discovery-Tools**
+ [Stellen Sie die virtuelle Appliance RN15 0](https://docs.flexera.com/foundationcloudscape/ug/Content/helplibrary/FCGS_QSG_DeployRN150.htm) bereit (Flexera-Dokumentation)
+ [Installation von Gatherer](https://www.modelizeit.com/documentation/ADC-Gatherer-Install.html) (ModelizeIT-Dokumentation)
+ Installation des [Analysis Servers vor Ort (ModelizeIT-Dokumentation](https://www.modelizeit.com/documentation/RejuvenApptor-Install.html))

## Zusätzliche Informationen
<a name="get-started-with-automated-portfolio-discovery-additional"></a>

**Überlegungen zur Auswahl eines automatisierten Discovery-Tools**

Jedes Discovery-Tool hat Vor- und Nachteile. Beachten Sie bei der Auswahl des geeigneten Tools für Ihren Anwendungsfall Folgendes:
+ Wählen Sie ein Discovery-Tool aus, mit dem die meisten, wenn nicht sogar alle Metadaten erfasst werden können, die Sie zur Erreichung Ihres Portfoliobewertungsziels benötigen.
+ Identifizieren Sie alle Metadaten, die Sie manuell sammeln müssen, da das Tool sie nicht unterstützt.
+ Stellen Sie allen Beteiligten die Anforderungen an das Discovery-Tool zur Verfügung, damit sie das Tool anhand ihrer internen Sicherheits- und Compliance-Anforderungen, wie Server-, Netzwerk- und Anmeldeinformationen, überprüfen und bewerten können.
  + Erfordert das Tool, dass Sie einen Agenten für den Workload installieren, der im Leistungsumfang enthalten ist?
  + Erfordert das Tool, dass Sie eine virtuelle Appliance in Ihrer Umgebung einrichten?
+ Ermitteln Sie Ihre Anforderungen an die Datenresidenz. Einige Unternehmen möchten ihre Daten nicht außerhalb ihrer Umgebung speichern. Um dieses Problem zu beheben, müssen Sie möglicherweise einige Komponenten des Tools in der lokalen Umgebung installieren.
+ Stellen Sie sicher, dass das Tool das Betriebssystem (OS) und die Betriebssystemversion des Workloads unterstützt, der im Leistungsumfang enthalten ist.
+ Stellen Sie fest, ob Ihr Portfolio Mainframe-, Midrange- und Legacy-Server umfasst. Die meisten Erkennungstools können diese Workloads als Abhängigkeiten erkennen, aber einige Tools sind möglicherweise nicht in der Lage, Gerätedetails wie Auslastung und Serverabhängigkeiten abzurufen. Die Discovery-Tools Device42 und ModernizeIT unterstützen sowohl Mainframe- als auch Midrange-Server.

## Anlagen
<a name="attachments-8c9d84de-e84a-4b0c-bcaa-389cd90be1f0"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/8c9d84de-e84a-4b0c-bcaa-389cd90be1f0/attachments/attachment.zip)

# Migrieren Sie lokale Cloudera-Workloads zur Cloudera Data Platform auf AWS
<a name="migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws"></a>

*Battulga Purevragchaa und Nidhi Gupta, Amazon Web Services*

*Nijjwol Lamsal, Cloudera, Inc.*

## Zusammenfassung
<a name="migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws-summary"></a>

Dieses Muster beschreibt die allgemeinen Schritte für die Migration Ihrer lokalen Cloudera Distributed Hadoop (CDH), Hortonworks Data Platform (HDP) und Cloudera Data Platform (CDP) -Workloads zur CDP Public Cloud auf AWS. Wir empfehlen Ihnen, mit Cloudera Professional Services und einem Systemintegrator (SI) zusammenzuarbeiten, um diese Schritte umzusetzen.

Es gibt viele Gründe, warum Cloudera-Kunden ihre lokalen CDH-, HDP- und CDP-Workloads in die Cloud verlagern möchten. Zu den typischen Gründen gehören:
+ Rationalisieren Sie die Einführung neuer Datenplattform-Paradigmen wie Data Lakehouse oder Data Mesh
+ Erhöhen Sie die Agilität Ihres Unternehmens, demokratisieren Sie den Zugriff auf bestehende Datenbestände und deren Inferenz
+ Senken Sie die Gesamtbetriebskosten (TCO)
+ Verbessern Sie die Workload-Elastizität
+ Ermöglichen Sie eine höhere Skalierbarkeit und reduzieren Sie den Zeitaufwand für die Bereitstellung von Datendiensten im Vergleich zu herkömmlichen Installationen vor Ort drastisch
+ Legacy-Hardware außer Dienst stellen und Hardware-Aktualisierungszyklen deutlich reduzieren
+ Nutzen Sie die pay-as-you-go Preisgestaltung, die mit dem Cloudera-Lizenzmodell (CCU) auf Cloudera-Workloads auf AWS ausgedehnt wird
+ Nutzen Sie die Vorteile einer schnelleren Bereitstellung und einer verbesserten Integration mit Plattformen für kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD)
+ Verwenden Sie eine einzige einheitliche Plattform (CDP) für mehrere Workloads

Cloudera unterstützt alle wichtigen Workloads, einschließlich Machine Learning, Data Engineering, Data Warehouse, Operational Database, Stream Processing (CSP) sowie Datensicherheit und Governance. Cloudera bietet diese Workloads seit vielen Jahren vor Ort an, und Sie können diese Workloads in die AWS-Cloud migrieren, indem Sie CDP Public Cloud mit Workload Manager und Replication Manager verwenden. 

Cloudera Shared Data Experience (SDX) bietet einen gemeinsamen Metadatenkatalog für diese Workloads, um eine konsistente Datenverwaltung und einen konsistenten Betrieb zu ermöglichen. SDX bietet außerdem umfassende, differenzierte Sicherheit zum Schutz vor Bedrohungen und eine einheitliche Steuerung für Prüf- und Suchfunktionen zur Einhaltung von Standards wie dem Payment Card Industry Data Security Standard (PCI DSS) und der DSGVO. 

**Die CDP-Migration auf einen Blick**


|  |  | 
| --- |--- |
|    Workload | Quell-Workload | CDH, HDP und CDP Private Cloud | 
| --- |--- |--- |
| Quellumgebung | Windows, LinuxLokal, Colocation oder jede Umgebung außerhalb von AWS | 
| Ziel-Workload | CDP Public Cloud auf AWS | 
| Zielumgebung | Bereitstellungsmodell: KundenkontoBetriebsmodell: customer/Cloudera Steuerungsebene | 
| ** **** ****Migration** | Migrationsstrategie (7Rs) | Rehosten, Neuplattformen oder Refactoring | 
| Handelt es sich um ein Upgrade der Workload-Version? | Ja | 
| Dauer der Migration | Bereitstellung: Ungefähr eine Woche, um ein Kundenkonto, eine vom Kunden verwaltete Virtual Private Cloud (VPC) und eine CDP Public Cloud-Umgebung zu erstellen.Migrationsdauer: 1—4 Monate, abhängig von der Komplexität und Größe der Arbeitslast. | 
| **Kosten** | Kosten für die Ausführung des Workloads auf AWS | Im Großen und Ganzen gehen die Kosten einer CDH-Workload-Migration zu AWS davon aus, dass Sie eine neue Umgebung auf AWS einrichten werden. Dazu gehören die Abrechnung von Zeit und Aufwand des Personals sowie die Bereitstellung von Rechenressourcen und die Lizenzierung von Software für die neue Umgebung.Das auf der Cloud-Nutzung basierende Preismodell von Cloudera bietet Ihnen die Flexibilität, die Vorteile von Bursting- und automatischen Skalierungsfunktionen zu nutzen. Weitere Informationen finden Sie unter [CDP Public Cloud-Servicetarife auf der Cloudera-Website](https://www.cloudera.com/products/pricing/cdp-public-cloud-service-rates.html).Cloudera Enterprise [Data Hub](https://www.cloudera.com/products/enterprise-data-hub.html) basiert auf Amazon Elastic Compute Cloud (Amazon EC2) und bildet traditionelle Cluster eng ab. Data Hub kann [angepasst werden, was](https://docs.cloudera.com/data-hub/cloud/create-cluster-aws/topics/mc-creating-a-cluster.html) sich jedoch auf die Kosten auswirken wird.[CDP Public Cloud Data Warehouse](https://docs.cloudera.com/data-warehouse/cloud/index.html), [Cloudera Machine Learning](https://docs.cloudera.com/machine-learning/cloud/product/topics/ml-product-overview.html) und [Cloudera Data Engineering (CDE) sind containerbasiert und können so konfiguriert](https://docs.cloudera.com/data-engineering/cloud/index.html) werden, dass sie automatisch skalieren. | 
| ** **** ****Infrastrukturvereinbarungen und Rahmenbedingungen** | Systemanforderungen | Weitere Informationen finden Sie im Abschnitt [Voraussetzungen](#migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws-prereqs). | 
| SLA | Weitere Informationen finden Sie unter [Cloudera Service Level Agreement für CDP Public](https://www.cloudera.com/legal/terms-and-conditions/cdp-public-cloud-sla.html) Cloud. | 
| DR | Weitere Informationen finden Sie in der Cloudera-Dokumentation unter [Disaster Recovery](https://docs.cloudera.com/cdp-reference-architectures/latest/cdp-ra-operations/topics/cdp-ra-abstract.html). | 
| Lizenz- und Betriebsmodell (für AWS-Zielkonto) | Modell „Bring Your Own License“ (BYOL) | 
| ** ****Compliance** | Anforderungen an Sicherheit | Weitere Informationen finden Sie in der [Cloudera-Dokumentation im Überblick über die Cloudera-Sicherheit](https://docs.cloudera.com/cdp-private-cloud-base/7.1.6/security-overview/topics/cm-security-overview.html). | 
| [Andere Compliance-Zertifizierungen](https://aws.amazon.com/compliance/programs) | Informationen zur Einhaltung der [Allgemeinen Datenschutzverordnung (DSGVO](https://www.cloudera.com/solutions/lower-business-risks/general-data-protection-regulation.html)) und zum [CDP Trust](https://www.cloudera.com/products/trust-center.html) Center finden Sie auf der Cloudera-Website. | 

## Voraussetzungen und Einschränkungen
<a name="migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws-prereqs"></a>

**Voraussetzungen**
+ [AWS-Kontoanforderungen](https://docs.cloudera.com/cdp-public-cloud/cloud/requirements-aws/topics/mc-requirements-aws.html), einschließlich Konten, Ressourcen, Services und Berechtigungen, z. B. Einrichtung von Rollen und Richtlinien für AWS Identity and Access Management (IAM)
+ [Voraussetzungen für die Bereitstellung von CDP](https://docs.cloudera.com/cdp-public-cloud/cloud/getting-started/topics/cdp-set_up_cdp_prerequisites.html) über die Cloudera-Website

Die Migration erfordert die folgenden Rollen und Fachkenntnisse:


| 
| 
| Rolle | Fähigkeiten und Verantwortlichkeiten | 
| --- |--- |
| Führung im Bereich Migration | Sorgt für die Unterstützung der Geschäftsleitung, die Zusammenarbeit, Planung, Implementierung und Bewertung im Team | 
| Cloudera KMU | Fachkenntnisse in den Bereichen CDH-, HDP- und CDP-Administration, Systemadministration und Architektur | 
| AWS-Architekt | Kenntnisse in AWS-Services, Netzwerken, Sicherheit und Architekturen | 

## Architektur
<a name="migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws-architecture"></a>

Der Aufbau der geeigneten Architektur ist ein entscheidender Schritt, um sicherzustellen, dass Migration und Leistung Ihren Erwartungen entsprechen. Damit Ihre Migrationsbemühungen die Annahmen dieses Playbooks erfüllen, muss Ihre Zieldatenumgebung in der AWS-Cloud, entweder auf gehosteten Virtual Private Cloud (VPC) -Instances oder CDP, in Bezug auf Betriebssystem- und Softwareversionen sowie wichtige Maschinenspezifikationen Ihrer Quellumgebung entsprechen.

Das folgende Diagramm (mit freundlicher Genehmigung aus dem [Cloudera Shared Data Experience-Datenblatt](https://www.cloudera.com/content/dam/www/marketing/resources/datasheets/cloudera-sdx-datasheet.pdf?daqp=true) wiedergegeben) zeigt die Infrastrukturkomponenten für die CDP-Umgebung und wie die Stufen oder Infrastrukturkomponenten interagieren. 

![\[Komponenten der CDP-Umgebung\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/bb47435e-2638-425c-ac37-7d55053452ac/images/91d62277-7fde-4ec6-8e2b-86a446e2f6ee.png)


Die Architektur umfasst die folgenden CDP-Komponenten:
+ Data Hub ist ein Dienst zum Starten und Verwalten von Workload-Clustern, der von Cloudera Runtime unterstützt wird. Sie können die Clusterdefinitionen in Data Hub verwenden, um Workload-Cluster für benutzerdefinierte Anwendungsfälle bereitzustellen und auf sie zuzugreifen und benutzerdefinierte Clusterkonfigurationen zu definieren. Weitere Informationen finden Sie auf der [Cloudera-Website](https://docs.cloudera.com/data-hub/cloud/index.html).
+ Data Flow and Streaming befasst sich mit den wichtigsten Herausforderungen, mit denen Unternehmen bei der Übertragung von Daten konfrontiert sind. Es verwaltet Folgendes:
  + Verarbeitung von Echtzeit-Datenstreaming mit hohem Volumen und großem Umfang
  + Verfolgung der Herkunft und Herkunft von Streaming-Daten
  + Verwaltung und Überwachung von Edge-Anwendungen und Streaming-Quellen

  Weitere Informationen finden Sie unter [Cloudera DataFlow](https://www.cloudera.com/products/dataflow.html) und [CSP](https://www.cloudera.com/products/stream-processing.html) auf der Cloudera-Website.
+ Data Engineering umfasst Datenintegration, Datenqualität und Datenverwaltung, die Unternehmen beim Aufbau und der Pflege von Daten-Pipelines und Workflows unterstützen. Weitere Informationen finden Sie auf der [Cloudera-Website](https://docs.cloudera.com/data-engineering/cloud/index.html). Erfahren Sie mehr über [die Unterstützung für Spot-Instances, um Kosteneinsparungen bei AWS for Cloudera Data Engineering-Workloads zu ermöglichen](https://docs.cloudera.com/data-engineering/cloud/cost-management/topics/cde-spot-instances.html).
+ ****Mit Data Warehouse können Sie unabhängige Data Warehouses und Data Marts einrichten, die automatisch skaliert werden, um den Workload-Anforderungen gerecht zu werden. Dieser Service bietet isolierte Recheninstanzen und automatisierte Optimierungen für jedes Data Warehouse und jeden Data Mart und hilft Ihnen, während der Besprechung SLAs Kosten zu sparen. Weitere Informationen finden Sie auf der [Cloudera-Website](https://docs.cloudera.com/data-warehouse/cloud/index.html). Erfahren Sie mehr über [Kostenmanagement](https://docs.cloudera.com/data-warehouse/cloud/planning/topics/dw-manage-cloud-costs.html) und [auto-scaling](https://docs.cloudera.com/data-warehouse/cloud/auto-scaling/topics/dw-public-cloud-autoscaling-overview.html) für Cloudera Data Warehouse auf AWS.
+ Die Betriebsdatenbank in CDP bietet eine zuverlässige und flexible Grundlage für skalierbare Hochleistungsanwendungen. Sie bietet eine jederzeit verfügbare, skalierbare Echtzeitdatenbank, die traditionelle strukturierte Daten zusammen mit neuen, unstrukturierten Daten auf einer einheitlichen Betriebs- und Warehousing-Plattform bereitstellt. [Weitere Informationen finden Sie auf der Cloudera-Website.](https://www.cloudera.com/products/operational-db.html)
+ Machine Learning ist eine Cloud-native Plattform für maschinelles Lernen, die Self-Service-Funktionen für Datenwissenschaft und Datentechnik zu einem einzigen, portablen Service innerhalb einer Unternehmensdatencloud zusammenführt. Sie ermöglicht den skalierbaren Einsatz von maschinellem Lernen und künstlicher Intelligenz (KI) für Daten an jedem beliebigen Ort. Weitere Informationen finden Sie auf der [Cloudera-Website](https://docs.cloudera.com/machine-learning/cloud/index.html).

**CDP auf AWS**

Das folgende Diagramm (mit freundlicher Genehmigung der Cloudera-Website angepasst) zeigt die High-Level-Architektur von CDP auf AWS. CDP implementiert ein [eigenes Sicherheitsmodell](https://docs.cloudera.com/runtime/7.1.0/cdp-security-overview/topics/security-management-console-security.html), um sowohl Konten als auch den Datenfluss zu verwalten. Diese werden mithilfe von [kontenübergreifenden](https://docs.cloudera.com/cdp-public-cloud/cloud/requirements-aws/topics/mc-aws-req-credential.html) Rollen in [IAM](https://aws.amazon.com/iam/) integriert. 

![\[CDP auf AWS-High-Level-Architektur\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/bb47435e-2638-425c-ac37-7d55053452ac/images/54420517-38b4-4e82-bd19-9ded50ed009c.png)


Die CDP-Steuerebene befindet sich in einem Cloudera-Master-Konto in einer eigenen VPC. Jedes Kundenkonto hat sein eigenes Unterkonto und eine eigene VPC. Kontoübergreifende IAM-Rollen und SSL-Technologien leiten den Verwaltungsdatenverkehr zur und von der Steuerungsebene an Kundenservices weiter, die sich in öffentlichen Subnetzen befinden, die über das Internet routbar sind, innerhalb jeder Kunden-VPC. Auf der VPC des Kunden bietet die Cloudera Shared Data Experience (SDX) unternehmensweite Sicherheit mit einheitlicher Governance und Compliance, sodass Sie schneller Erkenntnisse aus Ihren Daten gewinnen können. SDX ist eine Designphilosophie, die in alle Cloudera-Produkte integriert ist. Weitere Informationen zu [SDX](https://docs.cloudera.com/cdp-public-cloud/cloud/overview/topics/cdp-services.html) und der [CDP Public Cloud-Netzwerkarchitektur für AWS](https://docs.cloudera.com/cdp-public-cloud/cloud/aws-refarch/topics/cdp-pc-aws-refarch-overview.html) finden Sie in der Cloudera-Dokumentation.

## Tools
<a name="migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws-tools"></a>

**AWS-Services**
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/) bietet skalierbare Rechenkapazität in der AWS-Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.
+ [Amazon Elastic Kubernetes Service (Amazon EKS)](https://docs.aws.amazon.com/eks/latest/userguide/getting-started.html) hilft Ihnen, Kubernetes auf AWS auszuführen, ohne Ihre eigene Kubernetes-Steuerebene oder Knoten installieren oder verwalten zu müssen.
+ [AWS Identity and Access Management (IAM)](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) hilft Ihnen dabei, den Zugriff auf Ihre AWS-Ressourcen sicher zu verwalten, indem kontrolliert wird, wer authentifiziert und autorisiert ist, diese zu verwenden.
+ [Amazon Relational Database Service (Amazon RDS)](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Datenbank in der AWS-Cloud.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.

**Automatisierung und Tools**
+ Für zusätzliche Tools können Sie [Cloudera Backup Data Recovery (BDR)](https://docs.cloudera.com/documentation/enterprise/6/6.3/topics/cm_bdr_tutorials.html), [AWS Snowball und [AWS Snowmobile](https://aws.amazon.com/snowmobile/)](https://aws.amazon.com/snowball/) verwenden, um Daten von lokalen CDH, HDP und CDP auf AWS-gehostete CDP zu migrieren.
+ Für neue Bereitstellungen empfehlen wir, die [AWS-Partnerlösung für CDP](https://aws.amazon.com/solutions/partners/terraform-modules/cdp-public-cloud/) zu verwenden.

## Epics
<a name="migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws-epics"></a>

### Bereiten Sie sich auf die Migration vor
<a name="prepare-for-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Binden Sie das Cloudera-Team ein. | Cloudera verfolgt ein standardisiertes Kooperationsmodell mit seinen Kunden und kann mit Ihrem Systemintegrator (SI) zusammenarbeiten, um denselben Ansatz zu fördern. Wenden Sie sich an das Cloudera-Kundenteam, damit es Ihnen mit Rat und Tat zur Seite steht und Ihnen die notwendigen technischen Ressourcen für den Start des Projekts zur Verfügung stellt. Durch die Kontaktaufnahme mit dem Cloudera-Team wird sichergestellt, dass sich alle erforderlichen Teams auf die Migration vorbereiten können, wenn der Termin näher rückt. Sie können sich an Cloudera Professional Services wenden, um Ihre Cloudera-Implementierung schnell, zu geringeren Kosten und mit Spitzenleistung von der Pilotphase zur Produktion zu überführen. Eine vollständige Liste der Angebote finden Sie auf der [Cloudera-Website](https://www.cloudera.com/about/services-and-support/professional-services.html). | Leiter der Migration | 
| Erstellen Sie eine CDP Public Cloud-Umgebung auf AWS für Ihre VPC. | Arbeiten Sie mit Cloudera Professional Services oder Ihrem SI zusammen, um CDP Public Cloud in einer VPC auf AWS zu planen und bereitzustellen. | Cloud-Architekt, Cloudera SME | 
| Priorisieren und bewerten Sie die zu migrierenden Workloads. | Bewerten Sie alle Ihre lokalen Workloads, um herauszufinden, welche Workloads am einfachsten zu migrieren sind. Anwendungen, die nicht geschäftskritisch sind, sollten am besten zuerst verschoben werden, da sie nur minimale Auswirkungen auf Ihre Kunden haben werden. Speichern Sie die geschäftskritischen Workloads bis zum Schluss, nachdem Sie andere Workloads erfolgreich migriert haben.Transiente Workloads (CDP Data Engineering) lassen sich einfacher migrieren als persistente Workloads (CDP Data Warehouse). Es ist auch wichtig, bei der Migration das Datenvolumen und die Standorte zu berücksichtigen. Zu den Herausforderungen können die kontinuierliche Replikation von Daten aus einer lokalen Umgebung in die Cloud und die Änderung der Datenerfassungspipelines gehören, um Daten direkt in die Cloud zu importieren. | Leitung der Migration | 
| Erörtern Sie Aktivitäten zur Migration von CDH, HDP, CDP und Legacy-Anwendungen. | Erwägen Sie mit Cloudera Workload Manager die folgenden Aktivitäten und beginnen Sie mit der Planung:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws.html) | Leitung der Migration | 
| Erfüllen Sie die Anforderungen und Empfehlungen von Cloudera Replication Manager. | Arbeiten Sie mit Cloudera Professional Services und Ihrem SI zusammen, um die Migration von Workloads in Ihre CDP Public Cloud-Umgebung auf AWS vorzubereiten. Wenn Sie die folgenden Anforderungen und Empfehlungen kennen, können Sie häufig auftretende Probleme während und nach der Installation des Replication Manager-Service vermeiden.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws.html) | Leiter der Migration | 

### CDP zu AWS migrieren
<a name="migrate-cdp-to-aws"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie den ersten Workload für dev/test Umgebungen mithilfe von Cloudera Workload Manager. | Ihr SI kann Ihnen helfen, Ihren ersten Workload in die AWS-Cloud zu migrieren. Dabei sollte es sich um eine Anwendung handeln, die nicht kundenorientiert oder geschäftskritisch ist. Ideale Kandidaten für die dev/test Migration sind Anwendungen mit Daten, die die Cloud problemlos aufnehmen kann, wie z. B. CDP Data Engineering-Workloads. Dabei handelt es sich um einen vorübergehenden Workload, auf den in der Regel weniger Benutzer zugreifen, verglichen mit einem persistenten Workload wie einem CDP Data Warehouse-Workload, bei dem viele Benutzer ununterbrochenen Zugriff benötigen. Data Engineering-Workloads sind nicht dauerhaft, wodurch die Auswirkungen auf das Geschäft minimiert werden, falls etwas schief geht. Diese Aufgaben können jedoch für die Produktionsberichterstattung von entscheidender Bedeutung sein. Priorisieren Sie daher zunächst Datenverarbeitungs-Workloads mit geringen Auswirkungen. | Leiter der Migration | 
| Wiederholen Sie die Migrationsschritte nach Bedarf. | Cloudera Workload Manager hilft bei der Identifizierung von Workloads, die sich am besten für die Cloud eignen. Er bietet Kennzahlen wie Cloud-Leistungsbewertungen, sizing/capacity Pläne für die Zielumgebung und Replikationspläne. Die besten Kandidaten für eine Migration sind saisonale Workloads, Ad-hoc-Berichte und zeitweilige Jobs, die nicht viele Ressourcen verbrauchen.Cloudera Replication Manager verschiebt Daten von lokalen Standorten in die Cloud und von der Cloud in lokale Umgebungen.Optimieren Sie mithilfe von Workload Manager proaktiv Workloads, Anwendungen, Leistung und Infrastrukturkapazität für Data Warehousing, Data Engineering und maschinelles Lernen. [Eine vollständige Anleitung zur Modernisierung eines Data Warehouse finden Sie auf der Cloudera-Website.](https://www.cloudera.com/content/dam/www/marketing/resources/webinars/modern-data-warehouse-fundamentals.png.landing.html) | Cloudera SME | 

## Zugehörige Ressourcen
<a name="migrate-on-premises-cloudera-workloads-to-cloudera-data-platform-on-aws-resources"></a>

Cloudera-Dokumentation:
+ [Registrierung klassischer Cluster bei CDP, Cloudera Manager und Replication Manager:](https://docs.cloudera.com/replication-manager/cloud/operations/topics/rm-requirements-for-bdr-cdh-clusters.html)
  + [Management-Konsole](https://docs.cloudera.com/management-console/cloud/overview/topics/mc-management-console.html)
  + [Replication Manager: Hive-Replikation](https://docs.cloudera.com/replication-manager/cloud/core-concepts/topics/rm-replication-of-data-using-hive.html)
+ [Sentry-Replikation](https://docs.cloudera.com/replication-manager/cloud/core-concepts/topics/rm-sentry-policy-replication.html) 
+ [Sentry-Berechtigungen](https://docs.cloudera.com/replication-manager/cloud/core-concepts/topics/rm-sentry-ranger-permissions.html)
+ [Checkliste für die Planung von Data Hub-Clustern](https://docs.cloudera.com/data-hub/cloud/cluster-planning/topics/dh-cluster-checklist.html)
+ [Workload Manager-Architektur](https://docs.cloudera.com/workload-manager/cloud/configuration/topics/wm-public-architecture-wm.html)
+ [Anforderungen für Replication Manager](https://docs.cloudera.com/replication-manager/cloud/index.html)
+ [Beobachtbarkeit der Cloudera-Datenplattform](https://www.cloudera.com/products/observability.html)
+ [AWS-Anforderungen](https://docs.cloudera.com/cdp-public-cloud/cloud/requirements-aws/topics/mc-requirements-aws.html)

AWS-Dokumentation:
+ [Cloud-Datenmigration](https://aws.amazon.com/cloud-data-migration/)

# Verbindungsfehler nach der Migration von Microsoft SQL Server zur AWS-Cloud beheben
<a name="resolve-connection-errors-after-migrating-microsoft-sql-server-to-the-aws-cloud"></a>

*Premkumar Chelladurai, Amazon Web Services*

## Zusammenfassung
<a name="resolve-connection-errors-after-migrating-microsoft-sql-server-to-the-aws-cloud-summary"></a>

Nachdem Sie Microsoft SQL Server, der unter Windows Server 2008 R2, 2012 oder 2012 R2 ausgeführt wird, zu Amazon Elastic Compute Cloud (Amazon EC2) -Instances in der Amazon Web Services (AWS) -Cloud migriert haben, schlägt die Verbindung zu SQL Server fehl und die folgenden Fehler werden angezeigt: 
+ `[Microsoft][ODBC SQL Server Driver][DBNETLIB] General Network error`
+ `ERROR [08S01] [Microsoft][SQL Native Client]Communication link failure. System.Data.SqlClient.SqlException: A transport-level error has occurred when sending the request to the server. (provider: TCP Provider, error: 0 - An existing connection was forcibly closed by the remote host.)`
+ `TCP Provider: The semaphore timeout period has expired`

Dieses Muster beschreibt, wie Sie diese Fehler beheben können, indem Sie die Windows Scalable Networking Pack (SNP) -Features auf Betriebssystem- (OS) und Netzwerkschnittstellenebene für SQL Server deaktivieren, der unter Windows Server 2008 R2, 2012 oder 2012 R2 ausgeführt wird.

## Voraussetzungen und Einschränkungen
<a name="resolve-connection-errors-after-migrating-microsoft-sql-server-to-the-aws-cloud-prereqs"></a>

**Voraussetzungen**
+ Administratorrechte für Windows Server.
+ Wenn Sie AWS Application Migration Service als Migrationstool verwendet haben, benötigen Sie eine der folgenden Windows Server-Versionen:
  + Windows Server 2008 R2 Service Pack 1, 2012 oder 2012 R2
+ Wenn Sie CloudEndure Migration als Migrationstool verwendet haben, benötigen Sie eine der folgenden Windows Server-Versionen:
  + Windows Server 2003 R2 Service Pack 3, 2008, 2008 R2 Service Pack 1, 2012 oder 2012 R2

## Tools
<a name="resolve-connection-errors-after-migrating-microsoft-sql-server-to-the-aws-cloud-tools"></a>
+ [Amazon EC2](https://docs.aws.amazon.com/ec2/index.html) — Amazon Elastic Compute Cloud (Amazon EC2) bietet skalierbare Rechenkapazität in der AWS-Cloud. Sie können Amazon verwenden EC2 , um so viele oder so wenige virtuelle Server zu starten, wie Sie benötigen, und Sie können nach oben oder unten skalieren. 
+ [Windows Server](https://docs.microsoft.com/en-us/windows-server/) — Windows Server ist eine Plattform für den Aufbau einer Infrastruktur aus verbundenen Anwendungen, Netzwerken und Webdiensten.

## Epen
<a name="resolve-connection-errors-after-migrating-microsoft-sql-server-to-the-aws-cloud-epics"></a>

### Schalten Sie die SNP-Funktionen auf Betriebssystem- und elastic network interface Network-Schnittstellenebene aus
<a name="turn-off-snp-features-at-the-os-and-elastic-network-interface-levels"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Schalten Sie die SNP-Funktionen auf Betriebssystemebene aus. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/resolve-connection-errors-after-migrating-microsoft-sql-server-to-the-aws-cloud.html) | AWS-Administrator, AWS-Systemadministrator, Migrationsingenieur, Cloud-Administrator | 
| Schalten Sie die SNP-Funktionen auf der Ebene der elastic network interface aus. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/resolve-connection-errors-after-migrating-microsoft-sql-server-to-the-aws-cloud.html) | AWS-Administrator, Cloud-Administrator, AWS-Systemadministrator | 

## Zugehörige Ressourcen
<a name="resolve-connection-errors-after-migrating-microsoft-sql-server-to-the-aws-cloud-resources"></a>
+ [Wie behebt man Probleme mit erweiterten Netzwerkleistungsfunktionen wie RSS und NetDMA](https://docs.microsoft.com/en-us/troubleshoot/windows-server/networking/troubleshoot-network-performance-features-rss-netdma)

# Starten Sie den AWS Replication Agent SELinux nach dem Neustart eines RHEL-Quellservers automatisch neu, ohne ihn zu deaktivieren
<a name="restart-the-aws-replication-agent-automatically-without-disabling-selinux-after-rebooting-a-rhel-source-server"></a>

*Anil Kunapareddy, Venkatramana Chintha und Shanmugam Shanker, Amazon Web Services*

## Zusammenfassung
<a name="restart-the-aws-replication-agent-automatically-without-disabling-selinux-after-rebooting-a-rhel-source-server-summary"></a>

Der AWS Application Migration Service hilft Ihnen dabei, die Migration Ihres Red Hat Enterprise Linux (RHEL) -Workloads zur Amazon Web Services (AWS) Cloud zu vereinfachen, zu beschleunigen und zu automatisieren. Um Quellserver zu Application Migration Service hinzuzufügen, installieren Sie den AWS Replication Agent auf den Servern.

Der Application Migration Service bietet asynchrone Replikation auf Blockebene in Echtzeit. Das bedeutet, dass Sie während des gesamten Replikationsprozesses den normalen IT-Betrieb fortsetzen können. Diese IT-Operationen erfordern möglicherweise, dass Sie Ihren RHEL-Quellserver während der Migration neu starten oder neu starten. In diesem Fall wird der AWS Replication Agent nicht automatisch neu gestartet und Ihre Datenreplikation wird gestoppt. In der Regel können Sie Security-Enhanced Linux (SELinux) auf den **deaktivierten** oder **permissiven** Modus setzen, um den AWS Replication Agent automatisch neu zu starten. [Die Sicherheitsrichtlinien Ihres Unternehmens verbieten jedoch möglicherweise die Deaktivierung SELinux, und Sie müssen Ihre Dateien möglicherweise auch neu kennzeichnen.](https://access.redhat.com/solutions/3176)

Dieses Muster beschreibt, wie Sie den AWS Replication Agent automatisch neu starten, ohne ihn auszuschalten, SELinux wenn Ihr RHEL-Quellserver neu gestartet wird oder während einer Migration neu gestartet wird. 

## Voraussetzungen und Einschränkungen
<a name="restart-the-aws-replication-agent-automatically-without-disabling-selinux-after-rebooting-a-rhel-source-server-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto.
+ Ein lokaler RHEL-Workload, den Sie in die AWS-Cloud migrieren möchten. 
+ Der Application Migration Service wurde über die Application Migration Service-Konsole initialisiert. Die Initialisierung ist nur erforderlich, wenn Sie diesen Dienst zum ersten Mal verwenden. Anweisungen finden Sie in der [Dokumentation zum Application Migration Service](https://docs.aws.amazon.com/mgn/latest/ug/mandatory-setup.html).
+ Eine bestehende [AWS Identity and Access Management (IAM) -Richtlinie](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies.html) für den Application Migration Service. Weitere Informationen finden Sie in der [Dokumentation zum Application Migration Service](https://docs.aws.amazon.com/mgn/latest/ug/mgn-policies.html).

**Versionen**
+ RHEL Version 7 oder höher

## Tools
<a name="restart-the-aws-replication-agent-automatically-without-disabling-selinux-after-rebooting-a-rhel-source-server-tools"></a>

**AWS-Services**
+ [AWS Application Migration Service](https://docs.aws.amazon.com/mgn/latest/ug/what-is-application-migration-service.html) ist eine hochautomatisierte lift-and-shift (Rehost-) Lösung, die die Migration von Anwendungen zu AWS vereinfacht, beschleunigt und die Kosten senkt.

**Linux-Befehle**

Die folgende Tabelle enthält eine Liste der Linux-Befehle, die Sie auf Ihrem RHEL-Quellserver ausführen werden. Diese werden auch in den Epen und Geschichten zu diesem Muster beschrieben. 


| 
| 
| Befehl | Description | 
| --- |--- |
| `#systemctl –version` | Identifiziert die Systemversion. | 
| `#systemctl list-units --type=service` | Listet alle aktiven Dienste auf, die auf dem RHEL-Server verfügbar sind. | 
| `#systemctl list-units --type=service \| grep running` | Listet alle Dienste auf, die derzeit auf dem RHEL-Server ausgeführt werden. | 
| `#systemctl list-units --type=service \| grep failed` | Listet alle Dienste auf, die nach dem Neustart oder Neustart des RHEL-Servers nicht geladen werden konnten. | 
| `restorecon -Rv /etc/rc.d/init.d/aws-replication-service` | Ändert den Kontext zu. `aws-replication-service` | 
| `yum install policycoreutils*` | Installiert die wichtigsten Richtliniendienstprogramme, die für den Betrieb des SELinux Systems erforderlich sind. | 
| `ausearch -c "insmod" --raw \| audit2allow -M my-modprobe` | Durchsucht das Auditprotokoll und erstellt ein Modul für Richtlinien. | 
| `semodule -i my-modprobe.pp` | Aktiviert die Richtlinie. | 
| `cat my-modprobe.te` | Zeigt den Inhalt der `my-modprobe.te` Datei an. | 
| `semodule -l \| grep my-modprobe` | Überprüft, ob die Richtlinie in das SELinux Modul geladen wurde. | 

## Epen
<a name="restart-the-aws-replication-agent-automatically-without-disabling-selinux-after-rebooting-a-rhel-source-server-epics"></a>

### Installieren Sie den AWS Replication Agent und starten Sie den RHEL-Quellserver neu
<a name="install-the-aws-replication-agent-and-reboot-the-rhel-source-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen Application Migration Service-Benutzer mit einem Zugriffsschlüssel und einem geheimen Zugriffsschlüssel.  | Um den AWS Replication Agent zu installieren, müssen Sie einen Application Migration Service-Benutzer mit den erforderlichen AWS-Anmeldeinformationen erstellen. Anweisungen finden Sie in der [Dokumentation zum Application Migration Service](https://docs.aws.amazon.com/mgn/latest/ug/credentials.html). | Migrationsingenieur | 
| Installieren Sie den AWS Replication Agent. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/restart-the-aws-replication-agent-automatically-without-disabling-selinux-after-rebooting-a-rhel-source-server.html) | Migrationsingenieur | 
| Starten Sie den RHEL-Quellserver neu oder starten Sie ihn neu. | [Starten Sie Ihren RHEL-Quellserver neu oder starten Sie ihn neu, wenn der **Datenreplikationsstatus im Migrations-Dashboard****Blockiert** angezeigt wird.](https://docs.aws.amazon.com/mgn/latest/ug/migration-dashboard.html) | Migrationsingenieur | 
| Überprüfen Sie den Status der Datenreplikation. | Warten Sie eine Stunde und überprüfen Sie dann erneut den **Status der Datenreplikation** im Migrations-Dashboard. Es sollte sich im Status **Fehlerfrei** befinden. | Ingenieur für Migration | 

### Überprüfen Sie den Status des AWS Replication Agents auf dem RHEL-Quellserver
<a name="check-aws-replication-agent-status-on-the-rhel-source-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie die Systemversion. | Öffnen Sie die Befehlszeilenschnittstelle für Ihren RHEL-Quellserver und führen Sie den folgenden Befehl aus, um die Systemversion zu identifizieren:`#systemctl –version` | Migrationsingenieur | 
| Listet alle aktiven Dienste auf. | Um alle aktiven Dienste aufzulisten, die auf dem RHEL-Server verfügbar sind, führen Sie den folgenden Befehl aus:`#systemctl list-units --type=service` | Migrationsingenieur | 
| Listet alle laufenden Dienste auf. | Verwenden Sie den folgenden Befehl, um alle Dienste aufzulisten, die derzeit auf dem RHEL-Server ausgeführt werden:`#systemctl list-units --type=service \| grep running` | Migrationsingenieur | 
| Listet alle Dienste auf, die nicht geladen werden konnten. | Um alle Dienste aufzulisten, die nach dem Neustart oder Neustart des RHEL-Servers nicht geladen werden konnten, führen Sie den folgenden Befehl aus:`#systemctl list-units --type=service \| grep failed` | Migrationsingenieur | 

### Erstellen Sie das SELinux Modul und führen Sie es aus
<a name="create-and-run-the-selinux-module"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Ändern Sie den Sicherheitskontext. | Führen Sie in der Befehlszeilenschnittstelle für Ihren RHEL-Quellserver den folgenden Befehl aus, um den Sicherheitskontext auf den AWS-Replikationsservice zu ändern:`restorecon -Rv /etc/rc.d/init.d/aws-replication-service` | Migrationsingenieur | 
| Installieren Sie die wichtigsten Dienstprogramme. | Führen Sie den folgenden Befehl aus, um die Kerndienstprogramme zu installieren, die für den Betrieb des SELinux Systems und seiner Richtlinien erforderlich sind:`yum install policycoreutils*` | Ingenieur für Migration | 
| Durchsuchen Sie das Audit-Protokoll und erstellen Sie ein Modul für Richtlinien. | Führen Sie den Befehl aus:`ausearch -c "insmod" --raw \| audit2allow -M my-modprobe` | Ingenieur für Migration | 
| Zeigt den Inhalt der my-modprobe-te Datei an.  | Die `my-modprobe.te` Datei wird mit dem Befehl **audit2allow** generiert. Sie umfasst die SELinux Domänen, das Quellverzeichnis der Richtlinie und die Unterverzeichnisse und spezifiziert die Zugriffsvektorregeln und Übergänge, die den Domänen zugeordnet sind. Führen Sie den folgenden Befehl aus, um den Inhalt der Datei anzuzeigen:`cat my modprobe.te` | Ingenieur für Migration | 
| Aktivieren Sie die Richtlinie. | Führen Sie den folgenden Befehl aus, um das Modul einzufügen und das Richtlinienpaket zu aktivieren:`semodule -i my-modprobe.pp` | Ingenieur für Migration | 
| Prüfen Sie, ob das Modul geladen wurde.  | Führen Sie den Befehl aus:`semodule -l \| grep my-modprobe`Nachdem das SELinux Modul geladen wurde, müssen Sie während Ihrer Migration nicht mehr in SELinux den **deaktivierten** oder **permissiven** Modus wechseln. | Ingenieur für Migration | 
| Starten Sie den RHEL-Quellserver neu oder starten Sie ihn neu und überprüfen Sie den Status der Datenreplikation. | Öffnen Sie die AWS Migration Service Service-Konsole, navigieren Sie zu **Status der Datenreplikation** und starten Sie dann Ihren RHEL-Quellserver neu oder starten Sie ihn neu. Die Datenreplikation sollte jetzt automatisch fortgesetzt werden, nachdem der RHEL-Quellserver neu gestartet wurde. | Ingenieur für Migration | 

## Zugehörige Ressourcen
<a name="restart-the-aws-replication-agent-automatically-without-disabling-selinux-after-rebooting-a-rhel-source-server-resources"></a>
+ [Dokumentation zum Service für die Anwendungsmigration](https://docs.aws.amazon.com/mgn/latest/ug/what-is-application-migration-service.html)
+ [Technisches Schulungsmaterial](https://docs.aws.amazon.com/mgn/latest/ug/mgn-training.html)
+ [Behebung von Problemen mit dem AWS Replication Agent](https://docs.aws.amazon.com/mgn/latest/ug/Troubleshooting-Agent-Issues.html)
+ [Richtlinien für den Service zur Anwendungsmigration](https://docs.aws.amazon.com/mgn/latest/ug/mgn-policies.html)

# Re-Architekt
<a name="migration-rearchitect-pattern-list"></a>

**Topics**
+ [Konvertiert VARCHAR2 (1) den Datentyp für Oracle in den booleschen Datentyp für Amazon Aurora PostgreSQL](convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql.md)
+ [Anwendungsbenutzer und Rollen in Aurora PostgreSQL-kompatibel erstellen](create-application-users-and-roles-in-aurora-postgresql-compatible.md)
+ [Emulieren Sie Oracle DR mithilfe einer PostgreSQL-kompatiblen globalen Aurora-Datenbank](emulate-oracle-dr-by-using-a-postgresql-compatible-aurora-global-database.md)
+ [Implementieren Sie SHA1 Hashing für PII-Daten bei der Migration von SQL Server zu PostgreSQL](implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.md)
+ [Schrittweise Migration von Amazon RDS for Oracle zu Amazon RDS for PostgreSQL mithilfe von Oracle SQL Developer und AWS SCT](incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct.md)
+ [Laden Sie BLOB-Dateien mithilfe der Dateikodierung in Aurora PostgreSQL-kompatibel in TEXT](load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible.md)
+ [Migrieren Sie Amazon RDS for Oracle zu Amazon RDS for PostgreSQL mit AWS SCT und unter Verwendung von und AWS DMS AWS CLI CloudFormation](migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation.md)
+ [Migrieren Sie Amazon RDS for Oracle zu Amazon RDS for PostgreSQL im SSL-Modus mithilfe von AWS DMS](migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.md)
+ [Migrieren Sie Oracle SERIALLY\$1REUSABLE Pragma-Pakete nach PostgreSQL](migrate-oracle-serially-reusable-pragma-packages-into-postgresql.md)
+ [Migrieren Sie externe Oracle-Tabellen zu Amazon Aurora PostgreSQL-kompatibel](migrate-oracle-external-tables-to-amazon-aurora-postgresql-compatible.md)
+ [Migrieren Sie funktionsbasierte Indizes von Oracle nach PostgreSQL](migrate-function-based-indexes-from-oracle-to-postgresql.md)
+ [Migrieren Sie native Oracle-Funktionen mithilfe von Erweiterungen zu PostgreSQL](migrate-oracle-native-functions-to-postgresql-using-extensions.md)
+ [Migrieren Sie mithilfe von AWS DMS eine Db2-Datenbank von Amazon EC2 zu Aurora MySQL-kompatibel](migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.md)
+ [Migrieren Sie mithilfe von AWS DMS eine Microsoft SQL Server-Datenbank von Amazon EC2 zu Amazon DocumentDB](migrate-a-microsoft-sql-server-database-from-amazon-ec2-to-amazon-documentdb-by-using-aws-dms.md)
+ [Migrieren Sie eine lokale ThoughtSpot Falcon-Datenbank zu Amazon Redshift](migrate-an-on-premises-thoughtspot-falcon-database-to-amazon-redshift.md)
+ [Migrieren Sie mithilfe von Oracle von Oracle Database zu Amazon RDS for PostgreSQL GoldenGate](migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate.md)
+ [Migrieren Sie eine partitionierte Oracle-Tabelle mithilfe von AWS DMS zu PostgreSQL](migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms.md)
+ [Migrieren Sie von Amazon RDS for Oracle zu Amazon RDS for MySQL](migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-mysql.md)
+ [Migrieren Sie mithilfe von AWS DMS und AWS SCT von IBM Db2 auf Amazon EC2 zu Aurora PostgreSQL-kompatibel](migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie mithilfe von AWS DMS von Oracle 8i oder 9i zu Amazon RDS for PostgreSQL SharePlex](migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-shareplex-and-aws-dms.md)
+ [Migrieren Sie mithilfe von Materialized Views und AWS DMS von Oracle 8i oder 9i zu Amazon RDS for PostgreSQL](migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-materialized-views-and-aws-dms.md)
+ [Migrieren Sie mithilfe von AWS DMS und AWS SCT von Oracle auf Amazon EC2 zu Amazon RDS for MySQL](migrate-from-oracle-on-amazon-ec2-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie mithilfe von AWS DMS und AWS SCT eine Oracle-Datenbank von Amazon EC2 zu Amazon RDS for MariaDB](migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-mariadb-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank mit AWS DMS und AWS SCT zu Amazon RDS for MySQL](migrate-an-on-premises-oracle-database-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank mithilfe eines Oracle-Bystanders und AWS DMS zu Amazon RDS for PostgreSQL](migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms.md)
+ [Migrieren Sie eine Oracle-Datenbank mit AWS DMS und AWS SCT zu Amazon Redshift](migrate-an-oracle-database-to-amazon-redshift-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie eine Oracle-Datenbank mit AWS DMS und AWS SCT zu Aurora PostgreSQL](migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie Daten von einer lokalen Oracle-Datenbank zu Aurora PostgreSQL](migrate-data-from-an-on-premises-oracle-database-to-aurora-postgresql.md)
+ [Migrieren Sie mithilfe von AWS DMS von SAP ASE zu Amazon RDS for SQL Server](migrate-from-sap-ase-to-amazon-rds-for-sql-server-using-aws-dms.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mit AWS DMS zu Amazon Redshift](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-dms.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mithilfe von AWS SCT-Datenextraktionsagenten zu Amazon Redshift](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-sct-data-extraction-agents.md)
+ [Migrieren Sie Legacy-Anwendungen von Oracle Pro\$1C zu ECPG](migrate-legacy-applications-from-oracle-pro-c-to-ecpg.md)
+ [Migrieren Sie virtuell generierte Spalten von Oracle nach PostgreSQL](migrate-virtual-generated-columns-from-oracle-to-postgresql.md)
+ [Richten Sie die Oracle UTL\$1FILE-Funktionalität auf Aurora PostgreSQL-Compatible ein](set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible.md)
+ [Datenbankobjekte nach der Migration von Oracle zu Amazon Aurora PostgreSQL validieren](validate-database-objects-after-migrating-from-oracle-to-amazon-aurora-postgresql.md)

# Konvertiert VARCHAR2 (1) den Datentyp für Oracle in den booleschen Datentyp für Amazon Aurora PostgreSQL
<a name="convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql"></a>

*Naresh Damera, Amazon Web Services*

## Zusammenfassung
<a name="convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql-summary"></a>

Während einer Migration von Amazon Relational Database Service (Amazon RDS) for Oracle zu Amazon Aurora PostgreSQL-Compatible Edition kann es bei der Validierung der Migration in () zu einem Datenkonflikt kommen. AWS Database Migration Service AWS DMS Um diese Diskrepanz zu vermeiden, können Sie den Datentyp VARCHAR2 (1) in den booleschen Datentyp konvertieren.

VARCHAR2 Der Datentyp speichert Textzeichenfolgen variabler Länge, und VARCHAR2 (1) gibt an, dass die Zeichenfolge 1 Zeichen lang oder 1 Byte lang ist. Weitere Informationen zu VARCHAR2 finden Sie unter [Integrierte Oracle-Datentypen](https://docs.oracle.com/database/121/SQLRF/sql_elements001.htm#SQLRF30020) (Oracle-Dokumentation).

In diesem Muster sind die Daten VARCHAR2 (1) in der Spalte der Beispielquellendatentabelle entweder **Y** für *Ja* oder **N** für *Nein*.  Dieses Muster enthält Anweisungen zur Verwendung von AWS DMS und AWS Schema Conversion Tool (AWS SCT) zur Konvertierung dieses Datentyps von den **Y** - und **N-Werten** in VARCHAR2 (1) in die Werte **Wahr** oder **Falsch** in Boolean.

**Beabsichtigte Zielgruppe**

Dieses Muster wird für Benutzer empfohlen, die Erfahrung mit der Migration von Oracle-Datenbanken auf Aurora PostgreSQL-Compatible haben. AWS DMS Halten Sie sich beim Abschluss der Migration an die Empfehlungen unter [Converting Oracle to Amazon RDS for PostgreSQL oder Amazon Aurora PostgreSQL](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.ToPostgreSQL.html) (Dokumentation).AWS SCT 

## Voraussetzungen und Einschränkungen
<a name="convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql-prereqs"></a>

**Voraussetzungen**
+ Ein aktiver. AWS-Konto
+ Vergewissern Sie sich, dass Ihre Umgebung für Aurora vorbereitet ist, einschließlich der Einrichtung von Anmeldeinformationen, Berechtigungen und einer Sicherheitsgruppe. Weitere Informationen finden Sie unter [Einrichten Ihrer Umgebung für Amazon Aurora (Aurora-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_SettingUp_Aurora.html)).
+ Eine Amazon RDS for Oracle Oracle-Quelldatenbank, die eine Tabellenspalte mit VARCHAR2 (1) Daten enthält.
+ Eine mit Amazon Aurora PostgreSQL kompatible Zieldatenbank-Instance. Weitere Informationen finden Sie unter [Einen Datenbank-Cluster erstellen und eine Verbindung zu einer Datenbank auf einem Aurora PostgreSQL-Datenbank-Cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_GettingStartedAurora.CreatingConnecting.AuroraPostgreSQL.html#CHAP_GettingStarted.AuroraPostgreSQL.CreateDBCluster) herstellen (Aurora-Dokumentation).

**Produktversionen**
+ Amazon RDS for Oracle Version 12.1.0.2 oder höher.
+ AWS DMS Version 3.1.4 oder höher. Weitere Informationen finden Sie unter [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) und [Verwenden einer PostgreSQL-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html) (AWS DMS Dokumentation). Wir empfehlen Ihnen, die neueste Version von zu verwenden, um die umfassendste AWS DMS Versions- und Funktionsunterstützung zu erhalten.
+ AWS Schema Conversion Tool (AWS SCT) Version 1.0.632 oder höher. Wir empfehlen Ihnen, die neueste Version von zu verwenden, um die umfassendste AWS SCT Versions- und Funktionsunterstützung zu erhalten.
+ Aurora unterstützt die PostgreSQL-Versionen, die unter [Database Engine Versions for Aurora PostgreSQL-compatible](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.Updates.20180305.html) (Aurora-Dokumentation) aufgeführt sind.

## Architektur
<a name="convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql-architecture"></a>

**Quelltechnologie-Stack**

Amazon RDS for Oracle Oracle-Datenbank-Instance

**Zieltechnologie-Stack**

Amazon Aurora PostgreSQL-kompatible Datenbank-Instance

**Quell- und Zielarchitektur**

![\[Datentypen von VARCHAR2 (1) auf Boolean ändern\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/5d4dc568-20d8-4883-a942-21c81039d8e6/images/9fd82ae2-56e6-439c-b4cd-9e74fe77b480.png)


## Tools
<a name="convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql-tools"></a>

**AWS-Services**
+ [Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, ACID-konforme relationale Datenbank-Engine, die Sie bei der Einrichtung, dem Betrieb und der Skalierung von PostgreSQL-Bereitstellungen unterstützt.
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die oder zwischen Kombinationen von Cloud- und lokalen Konfigurationen. AWS Cloud 
+ [Amazon Relational Database Service (Amazon RDS) für Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Oracle-Datenbank in der. AWS Cloud
+ [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein mit der Zieldatenbank kompatibles Format konvertiert werden.

**Andere Dienste**
+ [Oracle SQL Developer](https://docs.oracle.com/en/database/oracle/sql-developer/) ist eine integrierte Entwicklungsumgebung, die die Entwicklung und Verwaltung von Oracle-Datenbanken sowohl in herkömmlichen als auch in Cloud-basierten Bereitstellungen vereinfacht. In diesem Muster verwenden Sie dieses Tool, um eine Verbindung zur Amazon RDS for Oracle Oracle-Datenbank-Instance herzustellen und die Daten abzufragen.
+ [pgAdmin](https://www.pgadmin.org/docs/) ist ein Open-Source-Verwaltungstool für PostgreSQL. Es bietet eine grafische Oberfläche, mit der Sie Datenbankobjekte erstellen, verwalten und verwenden können. In diesem Muster verwenden Sie dieses Tool, um eine Verbindung zur Aurora-Datenbank-Instance herzustellen und die Daten abzufragen.

## Epen
<a name="convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql-epics"></a>

### Bereite dich auf die Migration vor
<a name="prepare-for-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen Datenbankmigrationsbericht. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql.html) | DBA, Entwickler | 
| Deaktivieren Sie Fremdschlüsseleinschränkungen für die Zieldatenbank. | In PostgreSQL werden Fremdschlüssel mithilfe von Triggern implementiert. AWS DMS Lädt während der Vollladephase jede Tabelle einzeln. Es wird dringend empfohlen, Fremdschlüsseleinschränkungen während eines Vollladevorgangs mithilfe einer der folgenden Methoden zu deaktivieren:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql.html)Wenn das Deaktivieren von Fremdschlüsseleinschränkungen nicht möglich ist, erstellen Sie eine AWS DMS Migrationsaufgabe für die Primärdaten, die für die übergeordnete Tabelle und die untergeordnete Tabelle spezifisch ist. | DBA, Entwickler | 
| Deaktivieren Sie die Primärschlüssel und eindeutigen Schlüssel in der Zieldatenbank. | Deaktivieren Sie mit den folgenden Befehlen die Primärschlüssel und Einschränkungen in der Zieldatenbank. Dies trägt dazu bei, die Leistung der ersten Ladeaufgabe zu verbessern.<pre>ALTER TABLE <table> DISABLE PRIMARY KEY;</pre><pre>ALTER TABLE <table> DISABLE CONSTRAINT <constraint_name>;</pre> | DBA, Entwickler | 
| Erstellen Sie die erste Ladeaufgabe. | Erstellen Sie unter die Migrationsaufgabe für das erste Laden. AWS DMS Anweisungen finden Sie unter [Aufgabe erstellen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.Creating.html). Wählen Sie für die Migrationsmethode **Vorhandene Daten migrieren** aus. Diese Migrationsmethode wird `Full Load` in der API**** aufgerufen. Starten Sie diese Aufgabe noch nicht. | DBA, Entwickler | 
| Bearbeiten Sie die Aufgabeneinstellungen für die erste Ladeaufgabe. | Bearbeiten Sie die Aufgabeneinstellungen, um eine Datenvalidierung hinzuzufügen. Diese Validierungseinstellungen müssen in einer JSON-Datei erstellt werden. Anweisungen und Beispiele finden Sie unter [Aufgabeneinstellungen angeben](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.CustomizingTasks.TaskSettings.html). Fügen Sie die folgenden Validierungen hinzu:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql.html)Um den Rest der Datenmigration zu validieren, aktivieren Sie die Datenvalidierung in der Aufgabe. Weitere Informationen finden Sie unter [Einstellungen für die Datenvalidierungsaufgabe](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.CustomizingTasks.TaskSettings.DataValidation.html). | AWS-Administrator, DBA | 
| Erstellen Sie die laufende Replikationsaufgabe. | Erstellen Sie in AWS DMS die Migrationsaufgabe, die dafür sorgt, dass die Zieldatenbank mit der Quelldatenbank synchronisiert wird. Anweisungen finden Sie unter [Aufgabe erstellen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.Creating.html). Wählen Sie als Migrationsmethode die Option **Nur Datenänderungen replizieren** aus. Starten Sie diese Aufgabe noch nicht. | DBA | 

### Testen Sie die Migrationsaufgaben
<a name="test-the-migration-tasks"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie Beispieldaten zum Testen. | Erstellen Sie in der Quelldatenbank eine Beispieltabelle mit Daten für Testzwecke. | Developer | 
| Vergewissern Sie sich, dass keine widersprüchlichen Aktivitäten vorliegen. | Verwenden Sie den`pg_stat_activity`, um nach Aktivitäten auf dem Server zu suchen, die sich auf die Migration auswirken könnten. Weitere Informationen finden Sie unter [The Statistics Collector](https://www.postgresql.org/docs/current/monitoring-stats.html) (PostgreSQL-Dokumentation). | AWS-Administrator | 
| Starten Sie die AWS DMS Migrationsaufgaben. | Starten Sie in der AWS DMS Konsole auf der **Dashboard-Seite** die Aufgaben zum ersten Laden und zur laufenden Replikation, die Sie im vorherigen Epic erstellt haben. | AWS-Administrator | 
| Überwachen Sie die Aufgaben und den Ladestatus der Tabelle. | Überwachen Sie während der Migration den [Aufgabenstatus](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Monitoring.html#CHAP_Tasks.Status) und den [Tabellenstatus](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Monitoring.html#CHAP_Tasks.CustomizingTasks.TableState). Wenn die erste Ladeaufgabe abgeschlossen ist, gehen Sie auf der Registerkarte **Tabellenstatistiken** wie folgt vor:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql.html) | AWS-Administrator | 
| Überprüfen Sie die Migrationsergebnisse. | Fragen Sie mit pgAdmin die Tabelle in der Zieldatenbank ab. Eine erfolgreiche Abfrage zeigt an, dass die Daten erfolgreich migriert wurden. | Developer | 
| Fügen Sie Primärschlüssel und Fremdschlüssel zur Zieldatenbank hinzu. | Erstellen Sie den Primärschlüssel und den Fremdschlüssel in der Zieldatenbank. Weitere Informationen finden Sie unter [ALTER TABLE](https://www.postgresql.org/docs/current/sql-altertable.html) (PostgreSQL-Website). | DBA | 
| Bereinigen Sie die Testdaten. | Bereinigen Sie in den Quell- und Zieldatenbanken Daten, die für Komponententests erstellt wurden. | Developer | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Schließen Sie die Migration ab. | Wiederholen Sie das vorherige Epic, *Testen Sie die Migrationsaufgaben*, und verwenden Sie dabei die echten Quelldaten. Dadurch werden die Daten von der Quell- zur Zieldatenbank migriert. | Developer | 
| Stellen Sie sicher, dass die Quell- und Zieldatenbanken synchron sind. | Stellen Sie sicher, dass die Quell- und Zieldatenbanken synchron sind. Weitere Informationen und Anweisungen finden Sie unter [AWS DMS Datenvalidierung](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Validating.html). | Developer | 
| Stoppen Sie die Quelldatenbank. | Stoppen Sie die Amazon RDS for Oracle Oracle-Datenbank. Anweisungen finden Sie unter [Vorübergehendes Stoppen einer Amazon RDS-DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_StopInstance.html). Wenn Sie die Quelldatenbank beenden, werden das anfängliche Laden und die laufenden Replikationsaufgaben in AWS DMS automatisch gestoppt. Es sind keine zusätzlichen Maßnahmen erforderlich, um diese Aufgaben zu beenden. | Developer | 

## Zugehörige Ressourcen
<a name="convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql-resources"></a>

**AWS Verweise**
+ [Migrieren Sie eine Oracle-Datenbank mit AWS DMS und zu Aurora PostgreSQL AWS SCT](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct.html) (AWS Prescriptive Guidance)
+ [Konvertierung von Oracle zu Amazon RDS for PostgreSQL oder Amazon Aurora PostgreSQL](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.ToPostgreSQL.html) (Dokumentation)AWS SCT 
+ [Wie funktioniert AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Introduction.html) (Dokumentation)AWS DMS 

**Andere Referenzen**
+ [Boolescher Datentyp](https://www.postgresqltutorial.com/postgresql-tutorial/postgresql-boolean/) (PostgreSQL-Dokumentation)
+ [Integrierte Oracle-Datentypen](https://docs.oracle.com/database/121/SQLRF/sql_elements001.htm#SQLRF30020) (Oracle-Dokumentation)
+ [pgAdmin](https://www.pgadmin.org/) (pgAdmin-Webseite)
+ [SQL-Entwickler](https://www.oracle.com/database/technologies/appdev/sql-developer.html) (Oracle-Website)

**Tutorials und Videos**
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)
+ [Einführung in AWS DMS](https://www.youtube.com/watch?v=ouia1Sc5QGo) (Video)
+ [Amazon RDS verstehen](https://www.youtube.com/watch?v=eMzCI7S1P9M) (Video)

## Zusätzliche Informationen
<a name="convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql-additional"></a>

**Skript zur Datenvalidierung**

Das folgende Datenüberprüfungsskript konvertiert **1** in **Y** und **0** **in N.** Dies hilft der AWS DMS Aufgabe, die Tabellenüberprüfung erfolgreich abzuschließen und zu bestehen.

```
{
"rule-type": "validation",
"rule-id": "5",
"rule-name": "5",
"rule-target": "column",
"object-locator": {
"schema-name": "ADMIN",
"table-name": "TEMP_CHRA_BOOL",
"column-name": "GRADE"
},
"rule-action": "override-validation-function",
"target-function": "case grade when '1' then 'Y' else 'N' end"
        }
```

Die `case` Anweisung im Skript führt die Validierung durch. Wenn die Validierung fehlschlägt, wird ein Datensatz in die Tabelle **public.awsdms\$1validation\$1failures\$1v1** auf der Zieldatenbankinstanz AWS DMS eingefügt. Dieser Datensatz enthält den Tabellennamen, die Fehlerzeit und Details zu den nicht übereinstimmenden Werten in der Quell- und Zieltabelle.

Wenn Sie dieses Datenüberprüfungsskript nicht zur AWS DMS Aufgabe hinzufügen und die Daten in die Zieltabelle eingefügt werden, zeigt die AWS DMS Aufgabe den Validierungsstatus als Nicht **übereinstimmende** Datensätze an.

Während der AWS SCT Konvertierung ändert die AWS DMS Migrationsaufgabe den Datentyp des Datentyps VARCHAR2 (1) in Boolean und fügt der Spalte eine Primärschlüsseleinschränkung hinzu. `"NO"`

# Anwendungsbenutzer und Rollen in Aurora PostgreSQL-kompatibel erstellen
<a name="create-application-users-and-roles-in-aurora-postgresql-compatible"></a>

*Abhishek Verma, Amazon Web Services*

## Zusammenfassung
<a name="create-application-users-and-roles-in-aurora-postgresql-compatible-summary"></a>

Wenn Sie zu Amazon Aurora PostgreSQL-Compatible Edition migrieren, müssen die Datenbankbenutzer und Rollen, die in der Quelldatenbank vorhanden sind, in der Aurora PostgreSQL-kompatiblen Datenbank erstellt werden. Sie können die Benutzer und Rollen in Aurora PostgreSQL-kompatibel erstellen, indem Sie zwei verschiedene Ansätze verwenden:
+ Verwenden Sie in der Zieldatenbank ähnliche Benutzer und Rollen wie in der Quelldatenbank. Bei diesem Ansatz werden die Datendefinitionssprachen (DDLs) für Benutzer und Rollen aus der Quelldatenbank extrahiert. Anschließend werden sie transformiert und auf die Aurora PostgreSQL-kompatible Zieldatenbank angewendet. Der Blogbeitrag Use [SQL to map users, roles, and grants from Oracle to PostgreSQL](https://aws.amazon.com/blogs/database/use-sql-to-map-users-roles-and-grants-from-oracle-to-postgresql) behandelt beispielsweise die Verwendung der Extraktion aus einer Oracle-Quelldatenbank-Engine.
+ Verwenden Sie standardisierte Benutzer und Rollen, die häufig bei der Entwicklung, Verwaltung und Durchführung anderer verwandter Operationen in der Datenbank verwendet werden. Dazu gehören Schreibschutz, Lese-/Schreibvorgänge, Entwicklungs-, Verwaltungs- und Bereitstellungsvorgänge, die von den jeweiligen Benutzern ausgeführt werden.

Dieses Muster enthält die Grants, die für die Erstellung von Benutzern und Rollen in Aurora PostgreSQL-kompatibel erforderlich sind und für den standardisierten Benutzer- und Rollenansatz erforderlich sind. Die Schritte zur Benutzer- und Rollenerstellung orientieren sich an der Sicherheitsrichtlinie, den Datenbankbenutzern die geringsten Rechte zu gewähren. In der folgenden Tabelle sind die Benutzer, ihre entsprechenden Rollen und ihre Details in der Datenbank aufgeführt.


| 
| 
| Benutzer | Rollen | Zweck | 
| --- |--- |--- |
| `APP_read` | `APP_RO` | Wird für den schreibgeschützten Zugriff auf das Schema verwendet `APP` | 
| `APP_WRITE` | `APP_RW` | Wird für Schreib- und Lesevorgänge auf dem Schema verwendet `APP` | 
| `APP_dev_user` | `APP_DEV` | Wird für Entwicklungszwecke im Schema verwendet`APP_DEV`, mit schreibgeschütztem Zugriff auf das Schema `APP` | 
| `Admin_User` | `rds_superuser` | Wird für die Ausführung von Administratoroperationen an der Datenbank verwendet | 
| `APP` | `APP_DEP` | Wird für die Erstellung der Objekte unter dem `APP` Schema und für die Bereitstellung von Objekten im `APP` Schema verwendet | 

## Voraussetzungen und Einschränkungen
<a name="create-application-users-and-roles-in-aurora-postgresql-compatible-prereqs"></a>

**Voraussetzungen**
+ Ein aktives Amazon Web Services (AWS) -Konto
+ Eine PostgreSQL-Datenbank, Amazon Aurora PostgreSQL-Compatible Edition-Datenbank oder Amazon Relational Database Service (Amazon RDS) für PostgreSQL-Datenbank

**Produktversionen**
+ Alle Versionen von PostgreSQL

## Architektur
<a name="create-application-users-and-roles-in-aurora-postgresql-compatible-architecture"></a>

**Quelltechnologie-Stack**
+ Beliebige Datenbank

**Zieltechnologie-Stack**
+ Amazon Aurora PostgreSQL-kompatibel

**Zielarchitektur**

Das folgende Diagramm zeigt Benutzerrollen und die Schemaarchitektur in der Aurora PostgreSQL-kompatiblen Datenbank.

![\[Benutzerrollen und Schemaarchitektur für die Aurora PostgreSQL-kompatible Datenbank.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/80105a81-e3d1-4258-b3c1-77f3a5e78592/images/b95cb9bc-8bf7-47d1-92e7-66cfb37d7ce7.png)


                                                                                                                                    

**Automatisierung und Skalierung**

Dieses Muster enthält die Benutzer, Rollen und das Skript zur Schemaerstellung, das Sie mehrfach ausführen können, ohne dass dies Auswirkungen auf bestehende Benutzer der Quell- oder Zieldatenbank hat.

## Tools
<a name="create-application-users-and-roles-in-aurora-postgresql-compatible-tools"></a>

**AWS-Services**
+ [Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, ACID-konforme relationale Datenbank-Engine, die Sie bei der Einrichtung, dem Betrieb und der Skalierung von PostgreSQL-Bereitstellungen unterstützt.

**Andere Dienste**
+ [psql](https://www.postgresql.org/docs/current/app-psql.html) ist ein terminalbasiertes Frontend-Tool, das bei jeder PostgreSQL-Datenbankinstallation installiert wird. Es verfügt über eine Befehlszeilenschnittstelle zum Ausführen von SQL-, PL-PGSQL- und Betriebssystembefehlen.
+ [pgAdmin](https://www.pgadmin.org/) ist ein Open-Source-Verwaltungstool für PostgreSQL. Es bietet eine grafische Oberfläche, mit der Sie Datenbankobjekte erstellen, verwalten und verwenden können.

## Epen
<a name="create-application-users-and-roles-in-aurora-postgresql-compatible-epics"></a>

### Erstellen Sie die Benutzer und Rollen
<a name="create-the-users-and-roles"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie den Deployment-Benutzer. | Der Deployment-Benutzer `APP` wird verwendet, um die Datenbankobjekte während der Bereitstellung zu erstellen und zu ändern. Verwenden Sie die folgenden Skripts, um die Deployment-Benutzerrolle `APP_DEP` im Schema `APP` zu erstellen. Überprüfen Sie die Zugriffsrechte, um sicherzustellen, dass dieser Benutzer nur berechtigt ist, Objekte im erforderlichen Schema zu erstellen`APP`.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/create-application-users-and-roles-in-aurora-postgresql-compatible.html) | DBA | 
| Erstellen Sie den schreibgeschützten Benutzer. | Der schreibgeschützte Benutzer `APP_read` wird für die Ausführung des schreibgeschützten Vorgangs im Schema verwendet. `APP` Verwenden Sie die folgenden Skripten, um den schreibgeschützten Benutzer zu erstellen. Überprüfen Sie die Zugriffsrechte, um sicherzustellen, dass dieser Benutzer nur berechtigt ist, die Objekte im Schema zu lesen `APP` und allen neuen Objekten, die im Schema erstellt wurden, automatisch Lesezugriff zu gewähren. `APP`[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/create-application-users-and-roles-in-aurora-postgresql-compatible.html) | DBA | 
| Erstellen Sie den read/write Benutzer. | Der read/write Benutzer `APP_WRITE` wird verwendet, um Lese- und Schreiboperationen für das Schema auszuführen`APP`. Verwenden Sie die folgenden Skripten, um den read/write Benutzer zu erstellen und ihm die `APP_RW` Rolle zuzuweisen. Überprüfen Sie die Zugriffsrechte, um sicherzustellen, dass dieser Benutzer nur Lese- und Schreibberechtigungen für die Objekte im Schema hat, `APP` und um jedem neuen Objekt, das im Schema erstellt wurde, automatisch Lese- und Schreibzugriff zu gewähren`APP`.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/create-application-users-and-roles-in-aurora-postgresql-compatible.html) |  | 
| Erstellen Sie den Admin-Benutzer. | Der Admin-Benutzer `Admin_User` wird verwendet, um Admin-Operationen an der Datenbank durchzuführen. Beispiele für diese Operationen sind `CREATE ROLE` und`CREATE DATABASE`. `Admin_User`verwendet die integrierte Rolle`rds_superuser`, um Admin-Operationen in der Datenbank durchzuführen. Verwenden Sie die folgenden Skripts, um die Rechte für den Admin-Benutzer `Admin_User` in der Datenbank zu erstellen und zu testen.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/create-application-users-and-roles-in-aurora-postgresql-compatible.html) | DBA | 
| Erstellen Sie den Entwicklungsbenutzer. | Der Entwicklungsbenutzer `APP_dev_user` erhält die Rechte, die Objekte in seinem lokalen Schema zu erstellen `APP_DEV` und über Lesezugriff im Schema zu verfügen`APP`. Verwenden Sie die folgenden Skripten, um die Rechte des Benutzers `APP_dev_user` in der Datenbank zu erstellen und zu testen.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/create-application-users-and-roles-in-aurora-postgresql-compatible.html) | DBA | 

## Zugehörige Ressourcen
<a name="create-application-users-and-roles-in-aurora-postgresql-compatible-resources"></a>

**PostgreSQL-Dokumentation**
+ [ROLLE ERSTELLEN](https://www.postgresql.org/docs/9.1/sql-createrole.html)
+ [BENUTZER ERSTELLEN](https://www.postgresql.org/docs/8.0/sql-createuser.html)
+ [Vordefinierte Rollen](https://www.postgresql.org/docs/14/predefined-roles.html)

 

## Zusätzliche Informationen
<a name="create-application-users-and-roles-in-aurora-postgresql-compatible-additional"></a>

**Erweiterung von PostgreSQL 14**

PostgreSQL 14 bietet eine Reihe vordefinierter Rollen, die den Zugriff auf bestimmte häufig benötigte, privilegierte Funktionen und Informationen ermöglichen. Administratoren (einschließlich Rollen mit entsprechenden Rechten`CREATE ROLE`) können Benutzern diese Rollen oder andere Rollen in ihrer Umgebung zuweisen und ihnen so Zugriff auf die angegebenen Funktionen und Informationen gewähren.

Administratoren können Benutzern mithilfe des `GRANT` Befehls Zugriff auf diese Rollen gewähren. Um beispielsweise die `pg_signal_backend` Rolle zu erteilen`Admin_User`, können Sie den folgenden Befehl ausführen.

```
GRANT pg_signal_backend TO Admin_User;
```

Die `pg_signal_backend` Rolle soll es Administratoren ermöglichen, vertrauenswürdigen Rollen ohne Superuser das Senden von Signalen an andere Back-Ends zu ermöglichen. Weitere Informationen finden Sie unter [PostgreSQL 14-Erweiterung](https://www.postgresql.org/docs/14/predefined-roles.html).

**Feinabstimmung des Zugriffs**

In einigen Fällen kann es erforderlich sein, den Benutzern einen detaillierteren Zugriff zu gewähren (z. B. tabellenbasierter Zugriff oder spaltenbasierter Zugriff). In solchen Fällen können zusätzliche Rollen erstellt werden, um den Benutzern diese Rechte zu gewähren. Weitere Informationen finden Sie unter [PostgreSQL Grants](https://www.postgresql.org/docs/8.4/sql-grant.html).

# Emulieren Sie Oracle DR mithilfe einer PostgreSQL-kompatiblen globalen Aurora-Datenbank
<a name="emulate-oracle-dr-by-using-a-postgresql-compatible-aurora-global-database"></a>

*HariKrishna Boorgadda, Amazon Web Services*

## Zusammenfassung
<a name="emulate-oracle-dr-by-using-a-postgresql-compatible-aurora-global-database-summary"></a>

Bewährte Methoden für Disaster Recovery (DR) in Unternehmen bestehen im Wesentlichen darin, fehlertolerante Hardware- und Softwaresysteme zu entwickeln und zu implementieren, die einen Notfall überstehen (*Geschäftskontinuität*) und den normalen Betrieb wieder aufnehmen können (*Wiederaufnahme des Geschäftsbetriebs*), und zwar mit minimalen Eingriffen und idealerweise ohne Datenverlust. Der Aufbau fehlertoleranter Umgebungen zur Erfüllung der DR-Ziele von Unternehmen kann teuer und zeitaufwändig sein und erfordert ein starkes Engagement des Unternehmens.

Oracle Database bietet drei verschiedene Ansätze für DR, die im Vergleich zu anderen Ansätzen zum Schutz von Oracle-Daten das höchste Maß an Datenschutz und Verfügbarkeit bieten.
+ Oracle Zero Data Loss Recovery Appliance
+ Oracle Active Data Guard
+ Oracle GoldenGate

Dieses Muster bietet eine Möglichkeit, Oracle GoldenGate DR mithilfe einer globalen Amazon Aurora Aurora-Datenbank zu emulieren. Die Referenzarchitektur verwendet Oracle GoldenGate für DR in drei AWS-Regionen. Das Muster führt durch die Umstellung der Quellarchitektur auf die Cloud-native globale Aurora-Datenbank, die auf der Amazon Aurora PostgreSQL-Compatible Edition basiert.

Die globalen Aurora-Datenbanken sind für Anwendungen mit globaler Präsenz konzipiert. Eine einzelne Aurora-Datenbank umfasst mehrere AWS-Regionen mit bis zu fünf sekundären Regionen. Die globalen Aurora-Datenbanken bieten die folgenden Funktionen:
+ Replizierung auf physischer Speicherebene
+ Globale Lesevorgänge mit geringer Latenz
+ Schnelle Notfallwiederherstellung nach Ausfällen in der gesamten Region
+ Schnelle regionsübergreifende Migrationen
+ Geringe Replikationsverzögerung zwischen Regionen
+ Little-to-no Auswirkung auf die Leistung Ihrer Datenbank

Weitere Informationen zu den Funktionen und Vorteilen der globalen Aurora-Datenbank finden Sie unter [Verwenden globaler Amazon Aurora Aurora-Datenbanken](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-global-database.html#aurora-global-database-overview). Weitere Informationen zu ungeplanten und verwalteten Failovers finden Sie unter [Verwenden von Failover in einer globalen Amazon Aurora Aurora-Datenbank](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-global-database-disaster-recovery.html#aurora-global-database-failover).

## Voraussetzungen und Einschränkungen
<a name="emulate-oracle-dr-by-using-a-postgresql-compatible-aurora-global-database-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto 
+ Ein Java Database Connectivity (JDBC) PostgreSQL-Treiber für Anwendungskonnektivität
+ Eine globale Aurora-Datenbank, die auf der Amazon Aurora PostgreSQL-kompatiblen Edition basiert
+ Eine Oracle Real Application Clusters (RAC) -Datenbank wurde auf die globale Aurora-Datenbank migriert, die auf Aurora PostgreSQL-kompatibel ist

**Einschränkungen der globalen Aurora-Datenbanken**
+ Die globalen Aurora-Datenbanken sind nicht in allen AWS-Regionen verfügbar. Eine Liste der unterstützten Regionen finden Sie unter [Globale Aurora-Datenbanken mit Aurora PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Concepts.Aurora_Fea_Regions_DB-eng.Feature.GlobalDatabase.html#Concepts.Aurora_Fea_Regions_DB-eng.Feature.GlobalDatabase.apg).
+ Informationen zu Funktionen, die nicht unterstützt werden, und zu anderen Einschränkungen der globalen Aurora-Datenbanken finden Sie unter [Einschränkungen der globalen Amazon Aurora Aurora-Datenbanken](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-global-database.html#aurora-global-database.limitations).

**Produktversionen**
+ Amazon Aurora PostgreSQL — Compatible Edition Version 10.14 oder höher

## Architektur
<a name="emulate-oracle-dr-by-using-a-postgresql-compatible-aurora-global-database-architecture"></a>

**Quelltechnologie-Stack******
+ Oracle RAC-Datenbank mit vier Knoten
+ Oracle GoldenGate

**Quellarchitektur******

Das folgende Diagramm zeigt drei Cluster mit Oracle RAC mit vier Knoten in verschiedenen AWS-Regionen, die mit Oracle repliziert wurden. GoldenGate 

![\[Oracle RAC in einer primären Region und zwei sekundären Regionen.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/11d4265b-31af-4ebf-a766-24196193ee01/images/9fc740fc-d339-422e-beaf-1f65690c9d14.png)


**Zieltechnologie-Stack**
+ Eine globale Amazon Aurora Aurora-Datenbank mit drei Clustern, die auf Aurora PostgreSQL basiert — kompatibel, mit einem Cluster in der primären Region, zwei Clustern in verschiedenen sekundären Regionen

**Zielarchitektur**

![\[Amazon Aurora in einer primären Region und zwei sekundären Regionen.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/11d4265b-31af-4ebf-a766-24196193ee01/images/8e3deca9-03f2-437c-9341-795ac17e2b42.png)


## Tools
<a name="emulate-oracle-dr-by-using-a-postgresql-compatible-aurora-global-database-tools"></a>

**AWS-Services**
+ [Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, ACID-konforme relationale Datenbank-Engine, die Sie bei der Einrichtung, dem Betrieb und der Skalierung von PostgreSQL-Bereitstellungen unterstützt.
+ Die [globalen Datenbanken von Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-global-database.html) erstrecken sich über mehrere AWS-Regionen und bieten globale Lesevorgänge mit geringer Latenz und eine schnelle Wiederherstellung nach dem seltenen Ausfall, der eine gesamte AWS-Region betreffen kann.

## Epen
<a name="emulate-oracle-dr-by-using-a-postgresql-compatible-aurora-global-database-epics"></a>

### Fügen Sie Regionen mit Reader-DB-Instances hinzu
<a name="add-regions-with-reader-db-instances"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Hängen Sie einen oder mehrere sekundäre Aurora-Cluster an. | Wählen Sie in der AWS-Managementkonsole Amazon Aurora aus. Wählen Sie den primären Cluster aus, wählen Sie **Aktionen** und dann **Region hinzufügen** aus der Drop-down-Liste aus. | DBA | 
| Wählen Sie die Instanzklasse aus. | Sie können die Instanzklasse des sekundären Clusters ändern. Wir empfehlen jedoch, dieselbe wie die Instance-Klasse des primären Clusters beizubehalten. | DBA | 
| Fügen Sie die dritte Region hinzu. | Wiederhole die Schritte in diesem Epos, um einen Cluster in der dritten Region hinzuzufügen. | DBA | 

### Failover der globalen Aurora-Datenbank
<a name="fail-over-the-aurora-global-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Entfernen Sie den primären Cluster aus der globalen Aurora-Datenbank. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/emulate-oracle-dr-by-using-a-postgresql-compatible-aurora-global-database.html) | DBA | 
| Konfigurieren Sie Ihre Anwendung neu, um den Schreibdatenverkehr an den gerade hochgestuften Cluster weiterzuleiten. | Ändern Sie den Endpunkt in der Anwendung mit dem Endpunkt des neu hochgestuften Clusters. | DBA | 
| Beenden Sie die Ausführung von Schreibvorgängen für den nicht verfügbaren Cluster. | Beenden Sie die Anwendung und jegliche DML-Aktivitäten (Data Manipulation Language) für den Cluster, den Sie entfernt haben. | DBA | 
| Erstellen Sie eine neue globale Aurora-Datenbank. | Jetzt können Sie eine globale Aurora-Datenbank mit dem neu beworbenen Cluster als primärem Cluster erstellen. | DBA | 

### Starten Sie den primären Cluster
<a name="start-the-primary-cluster"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Wählen Sie den primären Cluster aus, der aus der globalen Datenbank gestartet werden soll. | Wählen Sie auf der Amazon Aurora Aurora-Konsole im Global Database-Setup den primären Cluster aus. | DBA | 
| Starten Sie den Cluster. | Wählen Sie in der Dropdownliste **Aktionen** die Option **Start** aus. Dieser Vorgang kann einige Zeit in Anspruch nehmen. Aktualisieren Sie den Bildschirm, um den Status zu sehen, oder überprüfen Sie nach Abschluss des Vorgangs in der Spalte **Status** den aktuellen Status des Clusters. | DBA | 

### Säubere die Ressourcen
<a name="clean-up-the-resources"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Löschen Sie die verbleibenden sekundären Cluster. | Entfernen Sie nach Abschluss des Failover-Pilotprojekts die sekundären Cluster aus der globalen Datenbank. | DBA | 
| Löschen Sie den primären Cluster. | Entfernen Sie den Cluster. | DBA | 

## Zugehörige Ressourcen
<a name="emulate-oracle-dr-by-using-a-postgresql-compatible-aurora-global-database-resources"></a>
+ [Verwenden von Amazon Aurora Global Databases](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-global-database.html#aurora-global-database-detaching)
+ [Aurora PostgreSQL Disaster Recovery-Lösungen mit Amazon Aurora Global Database](https://aws.amazon.com/blogs/database/aurora-postgresql-disaster-recovery-solutions-using-amazon-aurora-global-database/) (Blogbeitrag)

# Implementieren Sie SHA1 Hashing für PII-Daten bei der Migration von SQL Server zu PostgreSQL
<a name="implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql"></a>

*Rajkumar Raghuwanshi und Jagadish Kantubugata, Amazon Web Services*

## Zusammenfassung
<a name="implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql-summary"></a>

Dieses Muster beschreibt, wie Secure Hash Algorithm 1 (SHA1) -Hashing für E-Mail-Adressen implementiert wird, wenn von SQL Server zu Amazon RDS for PostgreSQL oder Amazon Aurora PostgreSQL-kompatibel migriert wird. *Eine E-Mail-Adresse ist ein Beispiel für persönlich identifizierbare Informationen (PII).* PII sind Informationen, die, wenn sie direkt betrachtet oder mit anderen verwandten Daten kombiniert werden, verwendet werden können, um vernünftige Rückschlüsse auf die Identität einer Person zu ziehen. 

Dieses Muster deckt die Herausforderungen ab, die mit der Aufrechterhaltung konsistenter Hashwerte für verschiedene Datenbankkollationen und Zeichenkodierungen verbunden sind, und bietet eine Lösung mithilfe von PostgreSQL-Funktionen und -Triggern. Dieses Muster konzentriert sich zwar auf SHA1 Hashing, kann aber für andere Hashing-Algorithmen angepasst werden, die vom PostgreSQL-Modul unterstützt werden. `pgcrypto` Berücksichtigen Sie immer die Auswirkungen Ihrer Hashing-Strategie auf die Sicherheit und wenden Sie sich beim Umgang mit sensiblen Daten an Sicherheitsexperten.

## Voraussetzungen und Einschränkungen
<a name="implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql-prereqs"></a>

**Voraussetzungen**
+ Ein aktiver AWS-Konto
+ Quell-SQL Server-Datenbank
+ PostgreSQL-Zieldatenbank (Amazon RDS für PostgreSQL oder Aurora PostgreSQL-kompatibel)
+ Erfahrung in der PL/PGSQL-Codierung

**Einschränkungen**
+ Dieses Muster erfordert je nach Anwendungsfall Änderungen der Sortierung auf Datenbankebene.
+ Die Auswirkungen auf die Leistung großer Datensätze wurden nicht bewertet.
+ Einige AWS-Services sind nicht in allen AWS-Regionen verfügbar. Informationen zur Verfügbarkeit in den einzelnen Regionen finden Sie unter [AWS Dienste nach Regionen](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/). Informationen zu bestimmten Endpunkten finden Sie unter [Dienstendpunkte und Kontingente](https://docs.aws.amazon.com/general/latest/gr/aws-service-information.html). Wählen Sie dort den Link für den Dienst aus.

**Produktversionen**
+ Microsoft SQL Server 2012 oder höher

## Architektur
<a name="implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql-architecture"></a>

**Quelltechnologie-Stack**
+ SQL Server
+ .NET Framework.

**Zieltechnologie-Stack**
+ PostgreSQL
+ `pgcrypto`Erweiterung

**Automatisierung und Skalierung**
+ Erwägen Sie die Implementierung der Hashing-Funktion als gespeicherte Prozedur, um die Wartung zu vereinfachen.
+ Bei großen Datensätzen sollten Sie die Leistung bewerten und Strategien zur Stapelverarbeitung oder Indizierung in Betracht ziehen.

## Tools
<a name="implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql-tools"></a>

**AWS-Services**
+ [Amazon Aurora PostgreSQL-Compatible](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, ACID-konforme relationale Datenbank-Engine, die Sie bei der Einrichtung, dem Betrieb und der Skalierung von PostgreSQL-Bereitstellungen unterstützt.
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) hilft Ihnen bei der Migration von Datenspeichern in die oder zwischen Kombinationen von Cloud- und lokalen Setups. AWS Cloud 
+ [Amazon Relational Database Service Amazon RDS for PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen PostgreSQL-Datenbank in der. AWS Cloud
+ [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist.

**Andere Tools**
+ [pgAdmin](https://www.pgadmin.org/) ist ein Open-Source-Verwaltungstool für PostgreSQL. Es bietet eine grafische Oberfläche, mit der Sie Datenbankobjekte erstellen, verwalten und verwenden können.
+ [SQL Server Management Studio (SSMS)](https://learn.microsoft.com/en-us/ssms/sql-server-management-studio-ssms) ist eine integrierte Umgebung für die Verwaltung beliebiger SQL-Infrastrukturen.

## Best Practices
<a name="implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql-best-practices"></a>
+ Verwenden Sie die entsprechenden Sortierungseinstellungen für die Behandlung von Sonderzeichen auf der Zieldatenbankseite.
+ Testen Sie gründlich mit einer Vielzahl von E-Mail-Adressen, einschließlich Adressen mit Nicht-ASCII-Zeichen.
+ Achten Sie bei der Verarbeitung von Groß- und Kleinbuchstaben auf Anwendungs- und Datenbankebene auf Konsistenz.
+ Vergleichen Sie die Leistung von Abfragen anhand der Hash-Werte.

## Epen
<a name="implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql-epics"></a>

### Analysieren Sie die Implementierung des Quell-Hashings
<a name="analyze-source-hashing-implementation"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie den SQL Server-Code. | Gehen Sie wie folgt vor, um den SQL Server-Code zu überprüfen, der SHA1 Hashes generiert:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.html) | Dateningenieur, DBA, App-Entwickler | 
| Dokumentieren Sie den Hash-Algorithmus und die Datentransformationen. | Gehen Sie wie folgt vor, um den genauen Hash-Algorithmus und die Datentransformationen zu dokumentieren:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.html) | App-Entwickler, Dateningenieur, DBA | 

### PostgreSQL-Hashing-Funktion erstellen
<a name="create-postgresql-hashing-function"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| `pgcrypto`Erweiterung erstellen. | Führen Sie den folgenden Befehl aus, `pgAdmin/psql` um die `pgcrypto` Erweiterung zu erstellen:<pre>CREATE EXTENSION pgcrypto;</pre> | DBA, Dateningenieur | 
| Implementieren Sie eine PostgreSQL-Funktion. | Implementieren Sie die folgende PostgreSQL-Funktion, um die SQL Server-Hashing-Logik zu replizieren. Auf hoher Ebene verwendet diese Funktion die folgenden Schritte:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.html)<pre>CREATE OR REPLACE FUNCTION utility.hex_to_bigint ( <br />     par_val character varying, <br />     par_upper character varying DEFAULT 'lower'::character varying) <br />RETURNS bigint <br />LANGUAGE 'plpgsql' <br />AS $BODY$ <br />DECLARE <br />    retnumber bigint; <br />    digest_bytes bytea;<br />BEGIN <br />    if lower(par_upper) = 'upper' <br />    then <br />        digest_bytes := digest(upper(par_val), 'sha1');<br />    else <br />        digest_bytes := digest((par_val), 'sha1');<br />    end if; <br />    retnumber := ('x' || encode(substring(digest_bytes, length(digest_bytes)-10+1), 'hex'))::bit(64)::bigint; <br />    RETURN retnumber; <br />END; <br />$BODY$;</pre> | Dateningenieur, DBA, App-Entwickler | 
| Testen der Funktion. | Verwenden Sie zum Testen der Funktion Beispieldaten von SQL Server, um die übereinstimmenden Hashwerte zu überprüfen. Führen Sie den folgenden Befehl aus:<pre>select 'alejandro_rosalez@example.com' as Email, utility.hex_to_bigint('alejandro_rosalez@example.com','upper') as HashValue;<br /><br />--OUTPUT<br />/*<br />email 	        hashvalue<br />"alejandro_rosalez@example.com"	451397011176045063<br />*/<br /></pre> | App-Entwickler, DBA, Dateningenieur | 

### Implementieren Sie Auslöser für automatisches Hashing
<a name="implement-triggers-for-automatic-hashing"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie Trigger für relevante Tabellen. | Um Trigger für relevante Tabellen zu erstellen, die beim Einfügen oder Aktualisieren automatisch Hashwerte generieren, führen Sie den folgenden Befehl aus:<pre>CREATE OR REPLACE FUNCTION update_email_hash() <br />RETURNS TRIGGER <br />AS $$ <br />BEGIN <br />    NEW.email_hash = utility.hex_to_bigint(NEW.email, 'upper'); <br />    RETURN NEW; <br />END; <br />$$ LANGUAGE plpgsql;</pre><pre>CREATE TRIGGER email_hash_trigger BEFORE INSERT OR UPDATE ON users FOR EACH ROW EXECUTE FUNCTION update_email_hash();</pre> | App-Entwickler, Dateningenieur, DBA | 

### Migrieren Sie vorhandene Daten
<a name="migrate-existing-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Entwickeln Sie ein Migrationsskript oder verwenden Sie es AWS DMS.  | Entwickeln Sie ein Migrationsskript oder verwenden Sie es, AWS DMS um Hashwerte für bestehende Daten aufzufüllen (einschließlich Hashwerte, die `BIGINT` im Quellsystem gespeichert sind). Führen Sie die folgenden Schritte aus:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.html) | Dateningenieur, App-Entwickler, DBA | 
| Verwenden Sie die neue PostgreSQL-Hashing-Funktion. | Gehen Sie wie folgt vor, um die neue PostgreSQL-Hashing-Funktion zur Sicherstellung der Konsistenz zu verwenden:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.html) | App-Entwickler, DBA, Ingenieur DevOps  | 

### Anwendungsabfragen aktualisieren
<a name="update-application-queries"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie Anwendungsanfragen. | Gehen Sie wie folgt vor, um Anwendungsabfragen zu identifizieren, die Hashwerte verwenden:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.html) | App-Entwickler, DBA, Dateningenieur | 
| Abfragen ändern. | Ändern Sie bei Bedarf Abfragen, um die neue PostgreSQL-Hashing-Funktion zu verwenden. Gehen Sie wie folgt vor:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.html) | App-Entwickler, DBA, Dateningenieur | 

### Testen und validieren
<a name="test-and-validate"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Führen Sie Tests durch. | Gehen Sie wie folgt vor, um gründliche Tests mit einer Teilmenge von Produktionsdaten durchzuführen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.html) | App-Entwickler, Dateningenieur, DBA | 
| Stellen Sie sicher, dass die Hashwerte übereinstimmen. | Gehen Sie wie folgt vor, um zu überprüfen, ob die Hashwerte zwischen SQL Server und PostgreSQL übereinstimmen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.html) | App-Entwickler, Dateningenieur, DBA | 
| Überprüfen Sie die Funktionalität der Anwendung. | Gehen Sie wie folgt vor, um die Anwendungsfunktionalität anhand der migrierten Daten und der neuen Hashing-Implementierung zu überprüfen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.html) | App-Entwickler, DBA, Dateningenieur | 

## Fehlerbehebung
<a name="implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Hashwerte stimmen nicht überein. | Überprüfen Sie die Zeichenkodierungen und Kollationen zwischen Quelle und Ziel. Weitere Informationen finden Sie unter [Sortierungsänderungen in PostgreSQL auf Amazon Aurora und Amazon RDS verwalten](https://aws.amazon.com/blogs/database/manage-collation-changes-in-postgresql-on-amazon-aurora-and-amazon-rds/) (AWS Blog). | 

## Zugehörige Ressourcen
<a name="implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql-resources"></a>

**AWS Blogs**
+ [Sortierungsänderungen in PostgreSQL auf Amazon Aurora und Amazon RDS verwalten](https://aws.amazon.com/blogs/database/manage-collation-changes-in-postgresql-on-amazon-aurora-and-amazon-rds/)
+ [Migrieren Sie SQL Server zu Amazon Aurora PostgreSQL mithilfe von Best Practices und Erfahrungen aus der Praxis](https://aws.amazon.com/blogs/database/migrate-sql-server-to-amazon-aurora-postgresql-using-best-practices-and-lessons-learned-from-the-field/)

**Sonstige Ressourcen**
+ [PostgreSQL-Pgcrypto-Modul](https://www.postgresql.org/docs/current/pgcrypto.html) (PostgreSQL-Dokumentation)
+ [PostgreSQL-Triggerfunktionen](https://www.postgresql.org/docs/current/plpgsql-trigger.html) (PostgreSQL-Dokumentation)
+ [SQL Server-Funktion HASHBYTES](https://docs.microsoft.com/en-us/sql/t-sql/functions/hashbytes-transact-sql) (Microsoft-Dokumentation)

# Schrittweise Migration von Amazon RDS for Oracle zu Amazon RDS for PostgreSQL mithilfe von Oracle SQL Developer und AWS SCT
<a name="incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct"></a>

*Pinesh Signal, Amazon Web Services*

## Zusammenfassung
<a name="incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct-summary"></a>

Viele Migrationsstrategien und -ansätze laufen in mehreren Phasen ab, die von einigen Wochen bis zu mehreren Monaten dauern können. Während dieser Zeit kann es aufgrund von Patches oder Upgrades in den Oracle-Quell-DB-Instances, die Sie zu PostgreSQL-DB-Instances migrieren möchten, zu Verzögerungen kommen. Um diese Situation zu vermeiden, empfehlen wir, den verbleibenden Oracle-Datenbankcode inkrementell zum PostgreSQL-Datenbankcode zu migrieren.

Dieses Muster bietet eine inkrementelle Migrationsstrategie ohne Ausfallzeiten für eine Oracle-DB-Instance mit mehreren Terabyte, bei der nach Ihrer ersten Migration eine hohe Anzahl von Transaktionen ausgeführt wurde und die in eine PostgreSQL-Datenbank migriert werden muss. Sie können den step-by-step Ansatz dieses Musters verwenden, um eine Amazon Relational Database Service (Amazon RDS) für Oracle-DB-Instance schrittweise zu einer Amazon RDS for PostgreSQL PostgreSQL-DB-Instance zu migrieren, ohne sich bei der Amazon Web Services (AWS) Management Console anzumelden.

Das Muster verwendet [Oracle SQL Developer](https://www.oracle.com/database/technologies/appdev/sqldeveloper-landing.html), um die Unterschiede zwischen zwei Schemas in der Oracle-Quelldatenbank zu ermitteln. Anschließend verwenden Sie das AWS Schema Conversion Tool (AWS SCT), um die Datenbankschemaobjekte von Amazon RDS for Oracle in Amazon RDS for PostgreSQL PostgreSQL-Datenbankschemaobjekte zu konvertieren. Anschließend können Sie in der Windows-Befehlszeile ein Python-Skript ausführen, um AWS-SCT-Objekte für die inkrementellen Änderungen an den Quelldatenbankobjekten zu erstellen.

**Anmerkung**  
Bevor Sie Ihre Produktions-Workloads migrieren, empfehlen wir Ihnen, einen Machbarkeitsnachweis (PoC) für den Ansatz dieses Musters in einer Test- oder Nicht-Produktionsumgebung durchzuführen.

## Voraussetzungen und Einschränkungen
<a name="incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto.
+ Eine bestehende Amazon RDS for Oracle Oracle-DB-Instance. 
+ Eine bestehende Amazon RDS for PostgreSQL PostgreSQL-DB-Instance.
+ AWS SCT, installiert und konfiguriert mit JDBC-Treibern für Oracle- und PostgreSQL-Datenbank-Engines. Weitere Informationen dazu finden Sie unter [Installation von AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Installing.html#CHAP_Installing.Procedure) und [Installation der erforderlichen Datenbanktreiber](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Installing.html#CHAP_Installing.JDBCDrivers) in der AWS SCT-Dokumentation. 
+ Oracle SQL Developer, installiert und konfiguriert. Weitere Informationen dazu finden Sie in der [Oracle SQL Developer-Dokumentation](https://www.oracle.com/database/technologies/appdev/sqldeveloper-landing.html). 
+ Die `incremental-migration-sct-sql.zip` Datei (angehängt) wurde auf Ihren lokalen Computer heruntergeladen.

**Einschränkungen**
+ Die Mindestanforderungen für Ihre Amazon RDS for Oracle DB-Quell-Instance sind:
  + Oracle-Versionen 10.2 und höher (für Versionen 10.x), 11g (Versionen 11.2.0.3.v1 und höher) und bis zu 12.2 und 18c für die Editionen Enterprise, Standard, Standard One und Standard Two
+ Die Mindestanforderungen für Ihre Amazon RDS for PostgreSQL PostgreSQL-DB-Ziel-Instance sind:  
  + PostgreSQL-Versionen 9.4 und höher (für Versionen 9.x), 10.x und 11.x
+ Dieses Muster verwendet Oracle SQL Developer. Ihre Ergebnisse können variieren, wenn Sie andere Tools verwenden, um Schemaunterschiede zu finden und zu exportieren.
+ Die von Oracle [SQL Developer generierten SQL-Skripten](https://docs.oracle.com/database/121/AEUTL/sql_rep.htm#AEUTL191) können zu Transformationsfehlern führen, was bedeutet, dass Sie eine manuelle Migration durchführen müssen.
+ Wenn die AWS SCT-Quell- und Zieltestverbindungen fehlschlagen, stellen Sie sicher, dass Sie die JDBC-Treiberversionen und eingehenden Regeln für die Sicherheitsgruppe der Virtual Private Cloud (VPC) so konfigurieren, dass sie eingehenden Datenverkehr akzeptiert.

**Produktversionen**
+ Amazon RDS for Oracle Oracle-DB-Instance Version 12.1.0.2 (Version 10.2 und höher)
+ Amazon RDS for PostgreSQL PostgreSQL-DB-Instance Version 11.5 (Version 9.4 und höher)
+ Oracle SQL Developer Version 19.1 und höher
+ AWS SCT Version 1.0.632 und höher

## Architektur
<a name="incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct-architecture"></a>

**Quelltechnologie-Stack**
+ Amazon RDS for Oracle Oracle-DB-Instance

**Zieltechnologie-Stack**
+ Amazon RDS for PostgreSQL PostgreSQL-DB-Instance

**Quell- und Zielarchitektur**

Das folgende Diagramm zeigt die Migration einer Amazon RDS for Oracle DB-Instance zu einer Amazon RDS for PostgreSQL DB-Instance.

![\[Migrations-Workflow von Amazon RDS for Oracle zu Amazon RDS for PostgreSQL.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/c7eed517-e496-4e8e-a520-c1e43397419e/images/bfbbed5e-db13-4a22-99aa-1a17f00f5faf.png)


Das Diagramm zeigt den folgenden Migrationsablauf:

1. Öffnen Sie Oracle SQL Developer und stellen Sie eine Verbindung zu den Quell- und Zieldatenbanken her.

1. Generieren Sie [einen Vergleichsbericht](https://docs.oracle.com/cd/E93130_01/rules_palette/Content/Diff%20Reports/Detailed_Diff_Reports.htm) und generieren Sie dann die SQL-Skriptdatei für die Schemadifferenzobjekte. Weitere Informationen zu Vergleichsberichten finden Sie in der Oracle-Dokumentation unter [Detaillierte Vergleichsberichte](https://docs.oracle.com/cd/E93130_01/rules_palette/Content/Diff%20Reports/Detailed_Diff_Reports.htm).

1. Konfigurieren Sie AWS SCT und führen Sie den Python-Code aus.

1. Die SQL-Skriptdatei konvertiert von Oracle nach PostgreSQL.

1. Führen Sie die SQL-Skriptdatei auf der PostgreSQL-DB-Zielinstanz aus. 

**Automatisierung und Skalierung**

Sie können diese Migration automatisieren, indem Sie Ihrem Python-Skript zusätzliche Parameter und sicherheitsrelevante Änderungen für mehrere Funktionen in einem einzigen Programm hinzufügen.

## Tools
<a name="incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct-tools"></a>
+ [AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) — Das AWS Schema Conversion Tool (AWS SCT) konvertiert Ihr vorhandenes Datenbankschema von einer Datenbank-Engine in eine andere.
+ [Oracle SQL Developer](https://www.oracle.com/database/technologies/appdev/sqldeveloper-landing.html) — Oracle SQL Developer ist eine integrierte Entwicklungsumgebung (IDE), die die Entwicklung und Verwaltung von Oracle-Datenbanken sowohl in herkömmlichen als auch in Cloud-basierten Bereitstellungen vereinfacht.

**Code**

Die `incremental-migration-sct-sql.zip` Datei (angehängt) enthält den vollständigen Quellcode für dieses Muster.

## Epen
<a name="incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct-epics"></a>

### Erstellen Sie die SQL-Skriptdatei für die Schemaunterschiede in der Quelldatenbank
<a name="create-the-sql-scripts-file-for-the-source-database-schema-differences"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Führen Sie Database Diff in Oracle SQL Developer aus.  | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct.html) | DBA | 
| Generieren Sie die SQL-Skriptdatei. | Wählen Sie **Generate Script**, um die Unterschiede in den SQL-Dateien zu generieren. Dadurch wird die SQL-Skriptdatei generiert, die AWS SCT verwendet, um Ihre Datenbank von Oracle nach PostgreSQL zu konvertieren. | DBA | 

### Verwenden Sie das Python-Skript, um die Ziel-DB-Objekte in AWS SCT zu erstellen
<a name="use-the-python-script-to-create-the-target-db-objects-in-aws-sct"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie AWS SCT mit der Windows-Eingabeaufforderung.  | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct.html)<pre>#source_vendor,source_hostname,source_dbname,source_user,source_pwd,source_schema,source_port,source_sid,target_vendor,target_hostname,target_user,target_pwd,target_dbname,target_port<br /><br />ORACLE,myoracledb.cokmvis0v46q.us-east-1.rds.amazonaws.com,ORCL,orcl,orcl1234,orcl,1521,ORCL,POSTGRESQL,mypgdbinstance.cokmvis0v46q.us-east-1.rds.amazonaws.com,pguser,pgpassword,pgdb,5432</pre>4. Ändern Sie die AWS SCT-Konfigurationsparameter gemäß Ihren Anforderungen und kopieren Sie dann die SQL-Skriptdatei in Ihr Arbeitsverzeichnis im `input` Unterverzeichnis. | DBA | 
| Führen Sie das Python-Skript aus.  | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct.html) | DBA | 
|  Erstellen Sie die Objekte in Amazon RDS for PostgreSQL | Führen Sie die SQL-Dateien aus und erstellen Sie Objekte in Ihrer Amazon RDS for PostgreSQL PostgreSQL-DB-Instance. | DBA | 

## Zugehörige Ressourcen
<a name="incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct-resources"></a>
+ [Oracle auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html) 
+ [PostgreSQL auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html)
+ [Verwenden der AWS SCT-Benutzeroberfläche](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html)
+ [Verwenden von Oracle als Quelle für AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.html)

## Anlagen
<a name="attachments-c7eed517-e496-4e8e-a520-c1e43397419e"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/c7eed517-e496-4e8e-a520-c1e43397419e/attachments/attachment.zip)

# Laden Sie BLOB-Dateien mithilfe der Dateikodierung in Aurora PostgreSQL-kompatibel in TEXT
<a name="load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible"></a>

*Bhanu Ganesh Gudivada und Jeevan Shetty, Amazon Web Services*

## Zusammenfassung
<a name="load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible-summary"></a>

Während der Migration müssen Sie häufig unstrukturierte und strukturierte Daten verarbeiten, die aus Dateien in einem lokalen Dateisystem geladen wurden. Die Daten können sich auch in einem Zeichensatz befinden, der sich vom Zeichensatz der Datenbank unterscheidet.

Diese Dateien enthalten die folgenden Datentypen:
+ **Metadaten** — Diese Daten beschreiben die Dateistruktur.
+ **Semistrukturierte Daten** — Dies sind Textzeichenfolgen in einem bestimmten Format wie JSON oder XML. Möglicherweise können Sie Aussagen zu solchen Daten treffen, z. B. „beginnt immer mit '<'“ oder „enthält keine Zeilenumbruchzeichen“.
+ **Volltext** — Diese Daten enthalten normalerweise alle Arten von Zeichen, einschließlich Zeilenumbruch- und Anführungszeichen. Sie können auch aus Multibyte-Zeichen in UTF-8 bestehen.
+ **Binärdaten** — Diese Daten können Bytes oder Kombinationen von Bytes enthalten, einschließlich Nullen und Markierungen. end-of-file

Das Laden einer Mischung dieser Datentypen kann eine Herausforderung sein.

Das Muster kann mit lokalen Oracle-Datenbanken, Oracle-Datenbanken, die sich auf Amazon Elastic Compute Cloud (Amazon EC2) -Instances in der Amazon Web Services (AWS) -Cloud befinden, und Amazon Relational Database Service (Amazon RDS) für Oracle-Datenbanken verwendet werden. Als Beispiel verwendet dieses Muster Amazon Aurora PostgreSQL-Compatible Edition.

In Oracle Database können Sie mithilfe eines `BFILE` (binären Datei-) Zeigers, des `DBMS_LOB` Pakets und der Oracle-Systemfunktionen Daten aus einer Datei laden und mit Zeichenkodierung in CLOB konvertieren. Da PostgreSQL den BLOB-Datentyp bei der Migration zu einer Amazon Aurora PostgreSQL-Compatible Edition-Datenbank nicht unterstützt, müssen diese Funktionen in PostgreSQL-kompatible Skripten konvertiert werden.

Dieses Muster bietet zwei Ansätze für das Laden einer Datei in eine einzelne Datenbankspalte in einer Amazon Aurora PostgreSQL-kompatiblen Datenbank:
+ Ansatz 1 — Sie importieren Daten aus Ihrem Amazon Simple Storage Service (Amazon S3) -Bucket, indem Sie die `table_import_from_s3` Funktion der `aws_s3` Erweiterung mit der Kodierungsoption verwenden.
+ Ansatz 2 — Sie kodieren außerhalb der Datenbank hexadezimal und dekodieren dann, um sie innerhalb der Datenbank anzuzeigen. `TEXT`

Wir empfehlen die Verwendung von Approach 1, da Aurora PostgreSQL-Compatible direkt in die Erweiterung integriert ist. `aws_s3`

Dieses Muster verwendet das Beispiel des Ladens einer Flat-Datei, die eine E-Mail-Vorlage mit Multibyte-Zeichen und unterschiedlicher Formatierung enthält, in eine Amazon Aurora PostgreSQL-kompatible Datenbank.

## Voraussetzungen und Einschränkungen
<a name="load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Amazon RDS-Instance oder eine Aurora PostgreSQL-kompatible Instance
+ Ein grundlegendes Verständnis von SQL und dem relationalen Datenbankmanagementsystem (RDBMS)
+ Ein Amazon Simple Storage Service (Amazon S3) -Bucket.
+ Kenntnisse der Systemfunktionen in Oracle und PostgreSQL
+ RPM-Paket HexDump -XXD-0.1.1 (in Amazon Linux 2 enthalten)
**Anmerkung**  
Amazon Linux 2 nähert sich dem Ende der Unterstützung. Weitere Informationen finden Sie unter [Amazon Linux FAQs 2.](https://aws.amazon.com/amazon-linux-2/faqs/)

**Einschränkungen**
+ Für den `TEXT` Datentyp beträgt die längste mögliche Zeichenfolge, die gespeichert werden kann, etwa 1 GB.

**Produktversionen**
+ Aurora unterstützt die PostgreSQL-Versionen, die in [Amazon Aurora PostgreSQL-Updates](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraPostgreSQLReleaseNotes/AuroraPostgreSQL.Updates.html) aufgeführt sind.

## Architektur
<a name="load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible-architecture"></a>

**Zieltechnologie-Stack**
+ Aurora PostgreSQL-kompatibel

**Zielarchitektur**

*Ansatz 1 — Verwendung von aws\$1s3.table\$1import\$1from\$1s3*

Von einem lokalen Server wird eine Datei, die eine E-Mail-Vorlage mit Multibyte-Zeichen und benutzerdefinierter Formatierung enthält, an Amazon S3 übertragen. Die durch dieses Muster bereitgestellte benutzerdefinierte Datenbankfunktion verwendet die `aws_s3.table_import_from_s3` Funktion mit`file_encoding`, um Dateien in die Datenbank zu laden und Abfrageergebnisse als `TEXT` Datentyp zurückzugeben.

![\[Vierstufiger Prozess vom lokalen Server zur TEXT-Ausgabe aus der Aurora-Datenbank.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/cbf63cac-dcea-4e18-ab4f-c4f6296f60e7/images/9c46b385-e8a0-4e50-b856-d522c44d79e3.png)


1. Dateien werden in den Staging-S3-Bucket übertragen.

1. Dateien werden in die Amazon Aurora PostgreSQL-kompatible Datenbank hochgeladen.

1. Mit dem pgAdmin-Client `load_file_into_clob` wird die benutzerdefinierte Funktion in der Aurora-Datenbank bereitgestellt.

1. Die benutzerdefinierte Funktion wird intern `table_import_from_s3` mit file\$1encoding verwendet. Die Ausgabe der Funktion wird durch die Verwendung von `array_to_string` und `array_agg` als `TEXT` Ausgabe abgerufen.

*Ansatz 2 — Hexadezimale Kodierung außerhalb der Datenbank und Dekodierung zur Anzeige von TEXT innerhalb der Datenbank*

Eine Datei von einem lokalen Server oder einem lokalen Dateisystem wird in einen Hex-Dump konvertiert. Dann wird die Datei als Feld in PostgreSQL importiert. `TEXT`

![\[Dreistufiger Prozess mit Hex-Dump.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/cbf63cac-dcea-4e18-ab4f-c4f6296f60e7/images/563038ca-f890-4874-85df-d0f82d99800a.png)


1. Konvertieren Sie die Datei in der Befehlszeile mit der Option in einen Hex-Dump. `xxd -p`

1. Laden Sie die Hex-Dump-Dateien mithilfe der `\copy` Option in das Aurora PostgreSQL-kompatible Format hoch und dekodieren Sie dann die Hex-Dump-Dateien in Binärdateien.

1. Kodieren Sie die Binärdaten, die zurückgegeben werden sollen als. `TEXT`

## Tools
<a name="load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible-tools"></a>

**AWS-Services**
+ [Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, ACID-konforme relationale Datenbank-Engine, die Sie bei der Einrichtung, dem Betrieb und der Skalierung von PostgreSQL-Bereitstellungen unterstützt.
+ [AWS Command Line Interface (AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-welcome.html) ist ein Open-Source-Tool, mit dem Sie über Befehle in Ihrer Befehlszeilen-Shell mit AWS-Services interagieren können.

**Andere Tools**
+ [pgAdmin4](https://www.pgadmin.org/) ist eine Open-Source-Verwaltungs- und Entwicklungsplattform für PostgreSQL. pgAdmin4 kann unter Linux, Unix, Mac OS und Windows zur Verwaltung von PostgreSQL verwendet werden.  

## Epen
<a name="load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible-epics"></a>

### Ansatz 1: Daten von Amazon S3 nach Aurora PostgreSQL-kompatibel importieren
<a name="approach-1-import-data-from-amazon-s3-to-aurora-postgresql-compatible"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Starten Sie eine EC2 Instanz. | Anweisungen zum Starten einer Instance finden Sie unter [Starten Sie Ihre Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/LaunchingAndUsingInstances.html). | DBA | 
| Installieren Sie das PostgreSQL-Client-Tool pgAdmin. | Downloaden und installieren Sie [pgAdmin](https://www.pgadmin.org/download/). | DBA | 
| Erstellen Sie eine IAM-Richtlinie. | Erstellen Sie eine AWS Identity and Access Management (IAM) -Richtlinie mit dem Namen`aurora-s3-access-pol`, die Zugriff auf den S3-Bucket gewährt, in dem die Dateien gespeichert werden. Verwenden Sie den folgenden Code und `<bucket-name>` ersetzen Sie ihn durch den Namen Ihres S3-Buckets.<pre>{<br />    "Version": "2012-10-17",		 	 	 <br />    "Statement": [<br />        {<br />            "Effect": "Allow",<br />            "Action": [<br />                "s3:GetObject",<br />                "s3:AbortMultipartUpload",<br />                "s3:DeleteObject",<br />                "s3:ListMultipartUploadParts",<br />                "s3:PutObject",<br />                "s3:ListBucket"<br />            ],<br />            "Resource": [<br />                "arn:aws:s3:::<bucket-name>/*",<br />                "arn:aws:s3:::<bucket-name>"<br />            ]<br />        }<br />    ]<br />}</pre> | DBA | 
| Erstellen Sie eine IAM-Rolle für den Objektimport von Amazon S3 nach Aurora PostgreSQL-kompatibel. | Verwenden Sie den folgenden Code, um eine IAM-Rolle mit dem Namen der Vertrauensbeziehung zu erstellen. `aurora-s3-import-role` [AssumeRole](https://docs.amazonaws.cn/en_us/STS/latest/APIReference/API_AssumeRole.html) `AssumeRole`ermöglicht Aurora, in Ihrem Namen auf andere AWS-Services zuzugreifen.<pre>{<br />  "Version": "2012-10-17",		 	 	 <br />  "Statement": [<br />    {<br />      "Effect": "Allow","Principal": {<br />        "Service": "rds.amazonaws.com"<br />      },"Action": "sts:AssumeRole"<br />    }<br />  ]<br />}<br /></pre> | DBA | 
| Ordnen Sie die IAM-Rolle dem Cluster zu. | Um die IAM-Rolle dem Aurora PostgreSQL-kompatiblen Datenbank-Cluster zuzuordnen, führen Sie den folgenden AWS-CLI-Befehl aus. Ändern Sie `<Account-ID>` die ID des AWS-Kontos, das die Aurora PostgreSQL-kompatible Datenbank hostet. Dadurch kann die Aurora PostgreSQL-kompatible Datenbank auf den S3-Bucket zugreifen.<pre>aws rds add-role-to-db-cluster --db-cluster-identifier aurora-postgres-cl<br />--feature-name s3Import --role-arn arn:aws:iam::<Account-ID>:role/aurora-s3-import-role</pre> | DBA | 
| Laden Sie das Beispiel auf Amazon S3 hoch. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible.html) | DBA, Besitzer der App | 
| Stellen Sie die benutzerdefinierte Funktion bereit. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible.html) | Besitzer der App, DBA | 
| Führen Sie die benutzerdefinierte Funktion zum Importieren der Daten in die Datenbank aus. | Führen Sie den folgenden SQL-Befehl aus und ersetzen Sie die Elemente in spitzen Klammern durch die entsprechenden Werte.<pre>select load_file_into_clob('aws-s3-import-test'::text,'us-west-1'::text,'employee.salary.event.notification.email.vm'::text);</pre>Ersetzen Sie die Elemente in spitzen Klammern durch die entsprechenden Werte, wie im folgenden Beispiel gezeigt, bevor Sie den Befehl ausführen.<pre>Select load_file_into_clob('aws-s3-import-test'::text,'us-west-1'::text,'employee.salary.event.notification.email.vm'::text);</pre>Der Befehl lädt die Datei aus Amazon S3 und gibt die Ausgabe als zurück`TEXT`. | Besitzer der App, DBA | 

### Ansatz 2: Konvertieren Sie die Vorlagendatei in einen Hex-Dump in einem lokalen Linux-System
<a name="approach-2-convert-the-template-file-into-a-hex-dump-in-a-local-linux-system"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konvertiert die Vorlagendatei in einen Hex-Dump. | Das Hexdump-Hilfsprogramm zeigt den Inhalt von Binärdateien in Hexadezimal, Dezimal, Oktal oder ASCII an. Der `hexdump` Befehl ist Teil des `util-linux` Pakets und in Linux-Distributionen vorinstalliert. Das Hexdump RPM-Paket ist ebenfalls Teil von Amazon Linux 2. (: Amazon Linux 2 nähert sich dem Ende der Unterstützung. Weitere Informationen finden Sie unter [Amazon Linux FAQs 2.](https://aws.amazon.com/amazon-linux-2/faqs/))Um den Dateiinhalt in einen Hex-Dump zu konvertieren, führen Sie den folgenden Shell-Befehl aus.<pre>xxd -p </path/file.vm> | tr -d '\n' > </path/file.hex></pre>Ersetzen Sie den Pfad und die Datei durch die entsprechenden Werte, wie im folgenden Beispiel gezeigt.<pre>xxd -p employee.salary.event.notification.email.vm | tr -d '\n' > employee.salary.event.notification.email.vm.hex</pre> | DBA | 
| Laden Sie die Hexdump-Datei in das Datenbankschema. | Verwenden Sie die folgenden Befehle, um die Hexdump-Datei in die Aurora PostgreSQL-kompatible Datenbank zu laden.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible.html) | DBA | 

## Zugehörige Ressourcen
<a name="load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible-resources"></a>

**Referenzen**
+ [Verwenden einer PostgreSQL-Datenbank als Ziel für den AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html)
+ [Playbook zur Migration von Oracle Database 19c zu Amazon Aurora mit PostgreSQL-Kompatibilität (12.4)](https://d1.awsstatic.com/whitepapers/Migration/oracle-database-amazon-aurora-postgresql-migration-playbook-12.4.pdf)
+ [IAM-Richtlinien erstellen](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_create.html)
+ [Zuordnen einer IAM-Rolle zu einem Amazon Aurora MySQL-DB-Cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL.Integrating.Authorizing.IAM.AddRoleToDBCluster.html)
+ [pgAdmin](https://www.pgadmin.org/)

**Tutorials**
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)
+ [Migrieren Sie von Oracle zu Amazon Aurora](https://aws.amazon.com/getting-started/projects/migrate-oracle-to-amazon-aurora/)

## Zusätzliche Informationen
<a name="load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible-additional"></a>

**benutzerdefinierte Funktion load\$1file\$1into\$1clob**

```
CREATE OR REPLACE FUNCTION load_file_into_clob(
    s3_bucket_name text,
    s3_bucket_region text,
    file_name text,
    file_delimiter character DEFAULT '&'::bpchar,
    file_encoding text DEFAULT 'UTF8'::text)
    RETURNS text
    LANGUAGE 'plpgsql'
    COST 100
    VOLATILE PARALLEL UNSAFE
AS $BODY$
DECLARE
    blob_data BYTEA;
    clob_data TEXT;
    l_table_name CHARACTER VARYING(50) := 'file_upload_hex';
    l_column_name CHARACTER VARYING(50) := 'template';
    l_return_text TEXT;
    l_option_text CHARACTER VARYING(150);
    l_sql_stmt CHARACTER VARYING(500);
        
BEGIN
    
    EXECUTE format ('CREATE TEMPORARY TABLE %I (%I text, id_serial serial)', l_table_name, l_column_name);
    
    l_sql_stmt := 'select ''(format text, delimiter ''''' || file_delimiter || ''''', encoding ''''' || file_encoding ||  ''''')'' ';
    
    EXECUTE FORMAT(l_sql_stmt)
    INTO l_option_text;
    
    EXECUTE FORMAT('SELECT aws_s3.table_import_from_s3($1,$2,$6, aws_commons.create_s3_uri($3,$4,$5))')
    INTO l_return_text
    USING l_table_name, l_column_name, s3_bucket_name, file_name,s3_bucket_region,l_option_text;
    
    EXECUTE format('select array_to_string(array_agg(%I order by id_serial),E''\n'') from %I', l_column_name, l_table_name)
    INTO clob_data;
    
    drop table file_upload_hex;
    
    RETURN clob_data;
END;
$BODY$;
```

**E-Mail-Vorlage**

```
######################################################################################
##                                                                                    ##
##    johndoe Template Type: email                                                    ##
##    File: johndoe.salary.event.notification.email.vm                                ##
##    Author: Aimée Étienne    Date 1/10/2021                                                ##
##  Purpose: Email template used by EmplmanagerEJB to inform a johndoe they         ##
##        have been given access to a salary event                                    ##
##    Template Attributes:                                                             ##
##        invitedUser - PersonDetails object for the invited user                        ##
##        salaryEvent - OfferDetails object for the event the user was given access    ##
##        buyercollege - CompDetails object for the college owning the salary event    ##
##        salaryCoordinator - PersonDetails of the salary coordinator for the event    ##
##        idp - Identity Provider of the email recipient                                ##
##        httpWebRoot - HTTP address of the server                                    ##
##                                                                                    ##
######################################################################################

$!invitedUser.firstname $!invitedUser.lastname,

Ce courriel confirme que vous avez ete invite par $!salaryCoordinator.firstname $!salaryCoordinator.lastname de $buyercollege.collegeName a participer a l'evenement "$salaryEvent.offeringtitle" sur johndoeMaster Sourcing Intelligence.

Votre nom d'utilisateur est $!invitedUser.username

Veuillez suivre le lien ci-dessous pour acceder a l'evenement.

${httpWebRoot}/myDashboard.do?idp=$!{idp}

Si vous avez oublie votre mot de passe, utilisez le lien "Mot de passe oublie" situe sur l'ecran de connexion et entrez votre nom d'utilisateur ci-dessus.

Si vous avez des questions ou des preoccupations, nous vous invitons a communiquer avec le coordonnateur de l'evenement $!salaryCoordinator.firstname $!salaryCoordinator.lastname au ${salaryCoordinator.workphone}.

*******

johndoeMaster Sourcing Intelligence est une plateforme de soumission en ligne pour les equipements, les materiaux et les services.

Si vous avez des difficultes ou des questions, envoyez un courriel a support@johndoeMaster.com pour obtenir de l'aide.
```

# Migrieren Sie Amazon RDS for Oracle zu Amazon RDS for PostgreSQL mit AWS SCT und unter Verwendung von und AWS DMS AWS CLI CloudFormation
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation"></a>

*Pinesh Signal, Amazon Web Services*

## Zusammenfassung
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation-summary"></a>

Dieses Muster zeigt, wie Sie mithilfe von () eine [Amazon Relational Database Service (Amazon RDS) für Oracle-DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html) mit mehreren Terabyte zu einer [Amazon RDS for PostgreSQL PostgreSQL-DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html) migrieren. AWS Command Line Interface AWS CLI Dieser Ansatz bietet minimale Ausfallzeiten und erfordert keine Anmeldung bei. AWS-Managementkonsole

Dieses Muster trägt dazu bei, manuelle Konfigurationen und individuelle Migrationen mithilfe der Konsolen AWS Schema Conversion Tool (AWS SCT) und AWS Database Migration Service (AWS DMS) zu vermeiden. Die Lösung richtet eine einmalige Konfiguration für mehrere Datenbanken ein und führt die Migrationen mithilfe AWS SCT von und in der durch. AWS DMS AWS CLI

Das Muster wird verwendet AWS SCT , um Datenbankschemaobjekte von Amazon RDS for Oracle in Amazon RDS for PostgreSQL zu konvertieren, und verwendet es dann, um die Daten AWS DMS zu migrieren. Mithilfe von AWS CLI Python-Skripten in erstellen Sie AWS SCT Objekte und AWS DMS Aufgaben mit einer CloudFormation Vorlage.

## Voraussetzungen und Einschränkungen
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation-prereqs"></a>

**Voraussetzungen**
+ Ein aktiver AWS-Konto.
+ Eine bestehende Amazon RDS for Oracle Oracle-DB-Instance.
+ Eine bestehende Amazon RDS for PostgreSQL PostgreSQL-DB-Instance. 
+ Eine Amazon Elastic Compute Cloud (Amazon EC2) -Instanz oder ein lokaler Computer mit Windows- oder Linux-Betriebssystem zum Ausführen von Skripten.
+ Ein Verständnis der folgenden Arten von AWS DMS Migrationsaufgaben:`full-load`,`cdc`,`full-load-and-cdc`.  Weitere Informationen finden Sie in der AWS DMS Dokumentation unter [Aufgabe erstellen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.Creating.html). 
+ AWS SCT, installiert und konfiguriert mit Java Database Connectivity (JDBC) -Treibern für Oracle- und PostgreSQL-Datenbank-Engines. Weitere Informationen finden Sie in der Dokumentation unter [Installation und Konfiguration AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Installing.html#CHAP_Installing.Procedure). AWS SCT  
+ Die `AWSSchemaConversionToolBatch.jar` Datei aus dem installierten AWS SCT Ordner wurde in Ihr Arbeitsverzeichnis kopiert.
+ Die `cli-sct-dms-cft.zip` Datei (angehängt), heruntergeladen und in Ihr Arbeitsverzeichnis extrahiert.
+ Die neueste Version der AWS DMS Replication Instance Engine. Weitere Informationen finden Sie in der AWS Support Dokumentation und in den [AWS DMS Versionshinweisen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_ReleaseNotes.html) unter [Wie erstelle ich eine AWS DMS Replikationsinstanz](https://aws.amazon.com/premiumsupport/knowledge-center/create-aws-dms-replication-instance/). 
+ AWS CLI Version 2, installiert und konfiguriert mit Ihrer Zugriffsschlüssel-ID, Ihrem geheimen Zugriffsschlüssel und dem AWS-Region Standardnamen für die EC2 Instanz oder das Betriebssystem, auf dem die Skripts ausgeführt werden. Weitere Informationen finden Sie in der AWS CLI Dokumentation unter [Installation oder Aktualisierung auf die neueste Version von AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html) und [Konfiguration AWS CLI der Einstellungen für](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html). 
+ Vertrautheit mit CloudFormation Vorlagen. Weitere Informationen finden Sie in der CloudFormation Dokumentation unter [So CloudFormation funktioniert](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/cloudformation-overview.html) es. 
+ Python Version 3, installiert und konfiguriert auf der EC2 Instanz oder dem Betriebssystem, auf dem die Skripts ausgeführt werden. Weitere Informationen finden Sie in der [Python-Dokumentation](https://docs.python.org/3/). 

**Einschränkungen**
+ Die Mindestanforderungen für Ihre Amazon RDS for Oracle DB-Quell-Instance sind: 
  + Oracle-Versionen 12c (12.1.0.2, 12.2.0.1), 18c (18.0.0.0) und 19c (19.0.0.0) für die Editionen Enterprise, Standard, Standard One und Standard Two.
  + Obwohl Amazon RDS Oracle 18c (18.0.0.0) unterstützt, ist diese Version veraltet, da Oracle nach diesem Datum keine Patches mehr für 18c bereitstellt. end-of-support Weitere Informationen finden Sie unter [Amazon RDS for Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html#Oracle.Concepts.Deprecate.11204) in der Amazon RDS-Dokumentation.
  + Amazon RDS for Oracle 11g wird nicht mehr unterstützt.
+ Die Mindestanforderungen für Ihre Amazon RDS for PostgreSQL PostgreSQL-DB-Ziel-Instance sind: 
  + PostgreSQL-Versionen 9 (9.5 und 9.6), 10.x, 11.x, 12.x und 13.x

**Produktversionen**
+ Amazon RDS for Oracle DB-Instance Version 12.1.0.2 und höher
+ Amazon RDS for PostgreSQL DB-Instance Version 11.5 und höher
+ AWS CLI Version 2 
+ Die neueste Version von AWS SCT
+ Die neueste Version von Python 3

## Architektur
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation-architecture"></a>

**Quelltechnologie-Stack**
+ Amazon RDS für Oracle

**Zieltechnologie-Stack**
+ Amazon RDS für PostgreSQL

**Quell- und Zielarchitektur**

Das folgende Diagramm zeigt die Migration einer Amazon RDS for Oracle DB-Instance zu einer Amazon RDS for PostgreSQL DB-Instance mithilfe von AWS DMS Python-Skripten.

![\[Migration der RDS für Oracle-DB-Instance zur RDS for PostgreSQL-DB-Instance mithilfe von AWS DMS und Python.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/5e041494-2e64-4f09-b6ec-0e0cba3a4972/images/77022e13-46fb-4aa8-ab49-85b0ca4c317a.png)


 

Das Diagramm zeigt den folgenden Migrationsablauf:

1. Das Python-Skript wird verwendet AWS SCT , um eine Verbindung zu den Quell- und Ziel-DB-Instances herzustellen.

1. Der Benutzer beginnt AWS SCT mit dem Python-Skript, konvertiert den Oracle-Code in PostgreSQL-Code und führt ihn auf der Ziel-DB-Instance aus.

1. Das Python-Skript erstellt AWS DMS Replikationsaufgaben für die Quell- und Ziel-DB-Instances.

1. Der Benutzer stellt Python-Skripts bereit, um die AWS DMS Aufgaben zu starten, und stoppt die Aufgaben dann, nachdem die Datenmigration abgeschlossen ist.

**Automatisierung und Skalierung**

Sie können diese Migration automatisieren, indem Sie Ihrem Python-Skript Parameter und sicherheitsrelevante Änderungen hinzufügen, um zusätzliche Funktionen bereitzustellen. 

## Tools
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation-tools"></a>
+ [AWS Command Line Interface (AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-welcome.html) ist ein Open-Source-Tool, mit dem Sie über Befehle in Ihrer Befehlszeilen-Shell mit AWS-Services interagieren können.
+ [CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html)hilft Ihnen dabei, AWS-Ressourcen einzurichten, sie schnell und konsistent bereitzustellen und sie während ihres gesamten Lebenszyklus regionsübergreifend AWS-Konten zu verwalten. Dieses Muster konvertiert die `.csv` `.json` Eingabedatei mithilfe eines Python-Skripts in eine Eingabedatei. Die `.json` Datei wird in AWS CLI Befehlen verwendet, um einen CloudFormation Stack zu erstellen, der mehrere AWS DMS Replikationsaufgaben mit Amazon-Ressourcennamen (ARNs), Migrationstypen, Aufgabeneinstellungen und Tabellenzuordnungen erstellt.
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) hilft Ihnen bei der Migration von Datenspeichern in die AWS Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups. Dieses Muster wird verwendet, AWS DMS um Aufgaben mit einem Python-Skript, das in der Befehlszeile ausgeführt wird, zu erstellen, zu starten und zu beenden und die CloudFormation Vorlage zu erstellen.
+ [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist. Für dieses Muster ist die `AWSSchemaConversionToolBatch.jar` Datei aus dem installierten Verzeichnis erforderlich. AWS SCT 

**Code**

Die `cli-sct-dms-cft.zip` Datei (angehängt) enthält den kompletten Quellcode für dieses Muster.

## Epen
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation-epics"></a>

### Konfigurieren AWS SCT und erstellen Sie Datenbankobjekte in AWS CLI
<a name="configure-awssct-and-create-database-objects-in-the-cli"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie AWS SCT es so, dass es von der ausgeführt wird AWS CLI. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation.html) | DBA | 
| Führen Sie das `run_aws_sct.py` Python-Skript aus. | Führen Sie das `run_aws_sct.py` Python-Skript mit dem folgenden Befehl aus:`$ python run_aws_sct.py database_migration.txt`Das Python-Skript konvertiert die Datenbankobjekte von Oracle nach PostgreSQL und erstellt SQL-Dateien im PostgreSQL-Format. Das Skript erstellt auch die PDF-Datei`Database migration assessment report`, die Ihnen detaillierte Empfehlungen und Konvertierungsstatistiken für Datenbankobjekte bietet. | DBA | 
| Erstellen Sie Objekte in Amazon RDS for PostgreSQL. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation.html) | DBA | 

### Konfigurieren und erstellen Sie AWS DMS Aufgaben mithilfe von und AWS CLI CloudFormation
<a name="configure-and-create-dms-tasks-by-using-the-cli-and-cfn"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine AWS DMS Replikationsinstanz. | Melden Sie sich bei der an AWS-Managementkonsole, öffnen Sie die [AWS DMS Konsole](https://console.aws.amazon.com/dms/v2/) und erstellen Sie eine Replikationsinstanz, die Ihren Anforderungen entsprechend konfiguriert ist.Weitere Informationen finden Sie in der Dokumentation unter [Erstellen einer Replikationsinstanz](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_ReplicationInstance.Creating.html) und in der AWS DMS Dokumentation unter [Wie erstelle ich eine AWS DMS Replikationsinstanz](https://aws.amazon.com/premiumsupport/knowledge-center/create-aws-dms-replication-instance/). AWS Support  | DBA | 
| Erstellen Sie den Quellendpunkt. | Wählen Sie in der AWS DMS Konsole **Endpoints** aus und erstellen Sie dann einen Quellendpunkt für die Oracle-Datenbank entsprechend Ihren Anforderungen. Das zusätzliche Verbindungsattribut muss `numberDataTypeScale` einen `-2` Wert haben.Weitere Informationen finden Sie in der AWS DMS Dokumentation unter [Quell- und Zielendpunkte erstellen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Endpoints.Creating.html). | DBA | 
| Erstellen Sie den Zielendpunkt. | Wählen Sie in der AWS DMS Konsole **Endpoints** aus und erstellen Sie dann einen Zielendpunkt für die PostgreSQL-Datenbank gemäß Ihren Anforderungen.  Weitere Informationen finden Sie in der Dokumentation unter [Quell- und Zielendpunkte erstellen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Endpoints.Creating.html). AWS DMS  | DevOps Ingenieur | 
| Konfigurieren Sie die AWS DMS Replikationsdetails für die Ausführung von AWS CLI. | Konfigurieren Sie die AWS DMS Quell- und Zielendpunkte sowie die Replikationsdetails in der `dms-arn-list.txt` Datei mit dem Quellendpunkt-ARN, dem Zielendpunkt-ARN und dem Replizierungsinstanz-ARN im folgenden Format:<pre>#sourceARN,targetARN,repARN<br />arn:aws:dms:us-east-1:123456789012:endpoint:EH7AINRUDZ5GOYIY6HVMXECMCQ<br />arn:aws:dms:us-east-1:123456789012:endpoint:HHJVUV57N7O3CQF4PJZKGIOYY5<br />arn:aws:dms:us-east-1:123456789012:rep:LL57N77AQQAHHJF4PJFHNEDZ5G</pre> | DBA | 
| Führen Sie das `dms-create-task.py` Python-Skript aus, um die AWS DMS Aufgaben zu erstellen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation.html) | DBA | 
| Stellen Sie sicher, dass die AWS DMS Aufgaben bereit sind. | Überprüfen Sie auf der AWS DMS Konsole im Abschnitt `Ready` Status, ob Ihre AWS DMS Aufgaben den **Status** haben. | DBA | 

### Starten und beenden Sie die AWS DMS Aufgaben mit dem AWS CLI
<a name="start-and-stop-the-dms-tasks-by-using-the-cli"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Starte die AWS DMS Aufgaben. | Führen Sie das `dms-start-task.py` Python-Skript mit dem folgenden Befehl aus:<pre>$ python dms-start-task.py start '<cdc-start-datetime>'</pre>Das Startdatum und die Startzeit müssen im `'YYYY-MM-DDTHH:MI:SS'` Format `'DD-MON-YYYY'` oder angegeben werden (z. B. `'01-Dec-2019'` oder`'2018-03-08T12:12:12'`).Sie können den Status der AWS DMS Aufgabe auf der Registerkarte **Tabellenstatistiken** auf der Seite **Aufgaben** der AWS DMS Konsole überprüfen. | DBA | 
| Validieren Sie die Daten. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation.html)Weitere Informationen finden Sie in der AWS DMS Dokumentation unter [AWS DMS Datenvalidierung](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Validating.html). | DBA | 
| Stoppen Sie die AWS DMS Aufgaben. | Führen Sie das Python-Skript mit dem folgenden Befehl aus:<pre>$ python dms-start-task.py stop</pre>AWS DMS Aufgaben werden je nach `failed` Validierungsstatus möglicherweise mit einem Status beendet. Weitere Informationen finden Sie im folgenden Abschnitt. | DBA | 

## Fehlerbehebung
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| AWS SCT Quell- und Zieltestverbindungen schlagen fehl. | Konfigurieren Sie die JDBC-Treiberversionen und die Regeln für den eingehenden Datenverkehr der VPC-Sicherheitsgruppe so, dass sie den eingehenden Datenverkehr akzeptieren. | 
| Der Testlauf am Quell- oder Zielendpunkt schlägt fehl. | Überprüfen Sie, ob sich die Endpunkteinstellungen und die Replikationsinstanz im `Available` Status befinden. Überprüfen Sie, ob der Status der Endpunktverbindung lautet`Successful`. Weitere Informationen finden Sie in der AWS Support Dokumentation unter [Wie behebe ich Fehler bei der AWS DMS-Endpunktkonnektivität](https://aws.amazon.com/premiumsupport/knowledge-center/dms-endpoint-connectivity-failures/)?. | 
| Der Volllastlauf schlägt fehl. | Überprüfen Sie, ob die Quell- und Zieldatenbanken übereinstimmende Datentypen und Größen haben. Weitere Informationen finden Sie in der AWS DMS Dokumentation unter [Problembehandlung AWS DMS bei Migrationsaufgaben](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Troubleshooting.html). | 
| Es treten Fehler beim Validierungslauf auf. | Prüfen Sie, ob die Tabelle einen Primärschlüssel hat, da Tabellen, die keine Primärschlüssel sind, nicht validiert werden.Wenn die Tabelle einen Primärschlüssel enthält und Fehler auftreten, überprüfen Sie, ob das zusätzliche Verbindungsattribut im Quellendpunkt einen hat`numberDataTypeScale=-2`.Weitere Informationen finden Sie in der AWS DMS Dokumentation unter [Endpunkteinstellungen bei Verwendung von Oracle als Quelle für AWS DMS[OracleSettings](https://docs.aws.amazon.com/dms/latest/APIReference/API_OracleSettings.html)](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html#CHAP_Source.Oracle.ConnectionAttrib), und [Problembehandlung](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Validating.html#CHAP_Validating.Troubleshooting). | 

## Zugehörige Ressourcen
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation-resources"></a>
+ [Installation und Konfiguration AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Installing.html#CHAP_Installing.Procedure)
+ [Einführung in AWS DMS](https://www.youtube.com/watch?v=ouia1Sc5QGo) (Video)
+ [Beispiele für CloudFormation Stack-Operationsbefehle für AWS CLI und PowerShell](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/cfn-using-cli.html)
+ [Navigieren in der Benutzeroberfläche des AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html)
+ [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ [Verbindung zu Oracle-Datenbanken herstellen mit AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.html)
+ [Verwendung einer PostgreSQL-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html) 
+ [Quellen für die Datenmigration](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.html)
+ [Ziele für die Datenmigration](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.html)
+ [Cloudformation](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudformation/index.html) (AWS CLI Dokumentation)
+ [create-stack](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudformation/create-stack.html) (Dokumentation)AWS CLI  
+ [dms](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/dms/index.html) (Dokumentation)AWS CLI  

## Anlagen
<a name="attachments-5e041494-2e64-4f09-b6ec-0e0cba3a4972"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/5e041494-2e64-4f09-b6ec-0e0cba3a4972/attachments/attachment.zip)

# Migrieren Sie Amazon RDS for Oracle zu Amazon RDS for PostgreSQL im SSL-Modus mithilfe von AWS DMS
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms"></a>

*Pinesh Signal, Amazon Web Services*

## Zusammenfassung
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms-summary"></a>

Dieses Muster bietet Anleitungen für die Migration einer Amazon Relational Database Service (Amazon RDS) für Oracle-Datenbank-Instance zu einer Amazon RDS for PostgreSQL PostgreSQL-Datenbank in der Amazon Web Services (AWS) -Cloud. Um Verbindungen zwischen den Datenbanken zu verschlüsseln, verwendet das Muster die Zertifizierungsstelle (CA) und den SSL-Modus in Amazon RDS und AWS Database Migration Service (AWS DMS).

Das Muster beschreibt eine Online-Migrationsstrategie mit geringen oder keinen Ausfallzeiten für eine Oracle-Quelldatenbank mit mehreren Terabyte und einer hohen Anzahl von Transaktionen. Aus Gründen der Datensicherheit verwendet das Muster SSL bei der Übertragung der Daten.

Dieses Muster verwendet das AWS Schema Conversion Tool (AWS SCT), um das Amazon RDS for Oracle Oracle-Datenbankschema in ein Amazon RDS for PostgreSQL PostgreSQL-Schema zu konvertieren. Anschließend verwendet das Muster AWS DMS, um Daten von der Amazon RDS for Oracle Oracle-Datenbank zur Amazon RDS for PostgreSQL PostgreSQL-Datenbank zu migrieren.

## Voraussetzungen und Einschränkungen
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto 
+ Amazon RDS-Datenbankzertifizierungsstelle (CA), konfiguriert nur mit ***rds-ca-rsa2048-g1*** 
  + Das ***rds-ca-2019-Zertifikat*** ist im August 2024 abgelaufen.
  + Das ***rds-ca-2015-Zertifikat ist am 5. März*** 2020 abgelaufen.
+ AWS SCT
+ AWS DMS
+ pgAdmin
+ SQL-Tools (z. B. SQL Developer oder SQL\$1Plus)

**Einschränkungen**
+ Amazon RDS for Oracle Oracle-Datenbank — Die Mindestanforderung gilt für die Oracle-Versionen 19c für die Enterprise- und Standard Two-Editionen.
+ Amazon RDS for PostgreSQL PostgreSQL-Datenbank — Die Mindestanforderung gilt für PostgreSQL Version 12 und höher (für Versionen 9.x und höher).

**Produktversionen**
+ Amazon RDS for Oracle Oracle-Datenbank-Instance Version 12.1.0.2
+ Amazon RDS for PostgreSQL PostgreSQL-Datenbank-Instance Version 11.5

## Architektur
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ Eine Amazon RDS for Oracle Oracle-Datenbank-Instance mit Version 12.1.0.2.v18.

**Zieltechnologie-Stack**
+ AWS DMS
+ Eine Amazon RDS for PostgreSQL PostgreSQL-Datenbank-Instance mit Version 11.5.

**Zielarchitektur**

Das folgende Diagramm zeigt die Architektur für die Datenmigrationsarchitektur zwischen Oracle-Datenbanken (Quell-) und PostgreSQL-Datenbanken (Ziel). Die Architektur umfasst Folgendes:
+ Eine Virtual Private Cloud (VPC)
+ Eine Availability Zone
+ Ein privates Subnetz
+ Eine Amazon RDS for Oracle Oracle-Datenbank
+ Eine AWS-DMS-Replikationsinstanz
+ Eine RDS-Datenbank für PostgreSQL

Um Verbindungen für Quell- und Zieldatenbanken zu verschlüsseln, müssen der CA- und SSL-Modus in Amazon RDS und AWS DMS aktiviert sein.

![\[Datenaustausch zwischen RDS für Oracle und AWS DMS sowie zwischen AWS DMS und RDS für PostgreSQL.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/7098e2a3-b456-4e14-8881-c97145aef483/images/55b50ff7-1e6a-4ff0-9bcd-2fd419d5316a.png)


## Tools
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms-tools"></a>

**AWS-Services**
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.
+ [Amazon Relational Database Service (Amazon RDS) für Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Oracle-Datenbank in der AWS-Cloud.
+ [Amazon Relational Database Service (Amazon RDS) für PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen PostgreSQL-Datenbank in der AWS-Cloud.
+ Das [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist.

**Andere Dienste**
+ [pgAdmin](https://www.pgadmin.org/) ist ein Open-Source-Verwaltungstool für PostgreSQL. Es bietet eine grafische Oberfläche, mit der Sie Datenbankobjekte erstellen, verwalten und verwenden können.

## Best Practices
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms-best-practices"></a>

Amazon RDS stellt neue CA-Zertifikate als eine bewährte Methode für die AWS-Sicherheit bereit. Informationen zu den neuen Zertifikaten und den unterstützten AWS-Regionen finden Sie unter [Verwenden, SSL/TLS um eine Verbindung zu einer DB-Instance oder einem Cluster zu verschlüsseln](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/UsingWithRDS.SSL.html).

Wenn Ihre RDS-Instance derzeit über ein CA-Zertifikat `rds-ca-2019` verfügt und Sie ein Upgrade durchführen möchten`rds-ca-rsa2048-g1`, folgen Sie den Anweisungen unter [Aktualisieren Ihres CA-Zertifikats durch Ändern Ihrer DB-Instance oder Ihres Clusters](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/UsingWithRDS.SSL-certificate-rotation.html#UsingWithRDS.SSL-certificate-rotation-updating) oder [Aktualisieren Ihres CA-Zertifikats durch Wartung](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/UsingWithRDS.SSL-certificate-rotation.html#UsingWithRDS.SSL-certificate-rotation-maintenance-update).

## Epen
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms-epics"></a>

### Konfiguration der Amazon RDS for Oracle Oracle-Instance
<a name="configure-the-amazon-rds-for-oracle-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Oracle-Datenbankinstanz. | Melden Sie sich bei Ihrem AWS-Konto an, öffnen Sie die AWS-Managementkonsole und navigieren Sie zur Amazon RDS-Konsole. Wählen Sie in der Konsole **Create database** und dann **Oracle** aus. | Allgemein AWS, DBA | 
| Sicherheitsgruppen konfigurieren. | Konfigurieren Sie Sicherheitsgruppen für eingehenden und ausgehenden Datenverkehr. | Allgemeines AWS | 
| Erstellen Sie eine Optionsgruppe. | Erstellen Sie eine Optionsgruppe in derselben VPC und Sicherheitsgruppe wie die Amazon RDS for Oracle Oracle-Datenbank. Wählen Sie für **Option die Option** **SSL** aus. Wählen Sie für **Port** **2484** (für SSL-Verbindungen) aus. | Allgemeines AWS | 
| Konfigurieren Sie die Optionseinstellungen. | Verwenden Sie die folgenden Einstellungen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | Allgemeines AWS | 
| Ändern Sie die RDS für Oracle-DB-Instance. | Legen Sie das CA-Zertifikat auf **rds-ca-rsa2048-g1** fest. Fügen Sie unter **Optionsgruppe** die zuvor erstellte Optionsgruppe hinzu. | DBA, Allgemeines AWS | 
| Vergewissern Sie sich, dass die RDS for Oracle DB-Instance verfügbar ist. | Stellen Sie sicher, dass die Amazon RDS for Oracle Oracle-Datenbank-Instance betriebsbereit ist und dass auf das Datenbankschema zugegriffen werden kann.Verwenden Sie den Befehl von der `sqlplus` Befehlszeile aus, um eine Verbindung zur RDS for Oracle-DB herzustellen.<pre>$ sqlplus orcl/****@myoracledb.cokmvis0v46q.us-east-1.rds.amazonaws.com:1521/ORCL<br />SQL*Plus: Release 12.1.0.2.0 Production on Tue Oct 15 18:11:07 2019<br />Copyright (c) 1982, 2016, Oracle.  All rights reserved.<br />Last Successful login time: Mon Dec 16 2019 23:17:31 +05:30<br />Connected to:<br />Oracle Database 12c Enterprise Edition Release 12.1.0.2.0 - 64bit Production<br />With the Partitioning, OLAP, Advanced Analytics and Real Application Testing options<br />SQL></pre> | DBA | 
| Erstellen Sie Objekte und Daten in der Datenbank RDS for Oracle. | Erstellen Sie Objekte und fügen Sie Daten in das Schema ein. | DBA | 

### Amazon RDS for PostgreSQL PostgreSQL-Instance konfigurieren
<a name="configure-the-amazon-rds-for-postgresql-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Datenbank RDS für PostgreSQL. | Wählen Sie auf der Seite **Datenbank erstellen** der Amazon RDS-Konsole PostgreSQL aus, um eine Amazon RDS for **PostgreSQL** PostgreSQL-Datenbank-Instance zu erstellen. | DBA, Allgemeines AWS | 
| Konfigurieren Sie Sicherheitsgruppen. | Konfigurieren Sie Sicherheitsgruppen für eingehenden und ausgehenden Datenverkehr. | Allgemeines AWS | 
| Erstellen Sie eine Parametergruppe. | Wenn Sie PostgreSQL Version 11.x verwenden, erstellen Sie eine Parametergruppe, um SSL-Parameter festzulegen. In PostgreSQL Version 12 ist die SSL-Parametergruppe standardmäßig aktiviert. | Allgemeines AWS | 
| Parameter bearbeiten. | Ändern Sie den `rds.force_ssl` Parameter auf `1` (ein).Standardmäßig ist der `ssl` Parameter `1` (on). Wenn Sie den `rds.force_ssl` Parameter auf setzen`1`, zwingen Sie, dass alle Verbindungen nur im SSL-Modus eine Verbindung herstellen. | Allgemeines AWS | 
| Ändern Sie die DB-Instance RDS für PostgreSQL. | **Legen Sie das CA-Zertifikat auf 2048-g1 fest. rds-ca-rsa** Hängen Sie je nach Ihrer PostgreSQL-Version die Standardparametergruppe oder die zuvor erstellte Parametergruppe an. | DBA, Allgemeines AWS | 
| Vergewissern Sie sich, dass die RDS for PostgreSQL-DB-Instance verfügbar ist. | Stellen Sie sicher, dass die Amazon RDS for PostgreSQL PostgreSQL-Datenbank betriebsbereit ist.Der `psql` Befehl stellt eine SSL-Verbindung her, die über die Befehlszeile `sslmode` festgelegt wurde.Eine Möglichkeit besteht darin, die Parametergruppe festzulegen `sslmode=1` und eine `psql` Verbindung zu verwenden, ohne den `sslmode` Parameter in den Befehl aufzunehmen.Die folgende Ausgabe zeigt, dass die SSL-Verbindung hergestellt wurde.<pre>$ psql -h mypgdbinstance.cokmvis0v46q.us-east-1.rds.amazonaws.com -p 5432 "dbname=pgdb user=pguser"<br />Password for user pguser:<br />psql (11.3, server 11.5)<br />SSL connection (protocol: TLSv1.2, cipher: ECDHE-RSA-AES256-GCM-SHA384, bits: 256, compression: off)<br />Type "help" for help.<br />pgdb=></pre>Eine zweite Option besteht darin, die Parametergruppe festzulegen `sslmode=1` und den `sslmode` Parameter in den `psql` Befehl aufzunehmen.Die folgende Ausgabe zeigt, dass die SSL-Verbindung hergestellt wurde.<pre>$ psql -h mypgdbinstance.cokmvis0v46q.us-east-1.rds.amazonaws.com -p 5432 "dbname=pgdb user=pguser sslmode=require"<br />Password for user pguser: <br />psql (11.3, server 11.5)<br />SSL connection (protocol: TLSv1.2, cipher: ECDHE-RSA-AES256-GCM-SHA384, bits: 256, compression: off)<br />Type "help" for help.<br />pgdb=></pre> | DBA | 

### AWS SCT konfigurieren und ausführen
<a name="configure-and-run-aws-sct"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie AWS SCT. | Installieren Sie die neueste Version der AWS SCT-Anwendung. | Allgemeines AWS | 
| Konfigurieren Sie AWS SCT mit JDBC-Treibern. | [Laden Sie die Java Database Connectivity (JDBC) -Treiber für Oracle ([ojdbc8.jar](https://download.oracle.com/otn-pub/otn_software/jdbc/233/ojdbc8.jar)) und PostgreSQL (postgresql-42.2.5.jar) herunter.](https://jdbc.postgresql.org/download/postgresql-42.2.19.jar)Um die Treiber in AWS SCT zu konfigurieren, wählen Sie **Einstellungen**, **Globale Einstellungen**, **Treiber**. | Allgemeines AWS | 
| Erstellen Sie das AWS SCT-Projekt. | Erstellen Sie das AWS SCT-Projekt und den Bericht mit Oracle als Quell-DB-Engine und Amazon RDS for PostgreSQL als Ziel-DB-Engine:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | Allgemeines AWS | 
| Datenbankobjekte validieren. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | DBA, Allgemeines AWS | 

### AWS DMS konfigurieren und ausführen
<a name="configure-and-run-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Replikationsinstanz. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | Allgemeines AWS | 
| Importieren Sie das Zertifikat. | Laden Sie das [Zertifikatspaket (PEM)](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/UsingWithRDS.SSL.html#UsingWithRDS.SSL.CertificatesAllRegions) für Ihre AWS-Region herunter.Das Paket enthält sowohl die `rds-ca-2019` Zwischen- als auch die Stammzertifikate. Das Paket enthält auch die `rds-ca-ecc384-g1` CA-Stammzertifikate `rds-ca-rsa2048-g1``rds-ca-rsa4096-g1`, und. Ihr Anwendungs-Trustspeicher muss nur das Root-CA-Zertifikat registrieren. | Allgemeines AWS | 
| Erstellen Sie den Quellendpunkt. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html)Weitere Informationen finden Sie unter [Verwenden einer Oracle-Datenbank als Quelle für den AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html). | Allgemeines AWS | 
| Erstellen Sie den Zielendpunkt. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html)Weitere Informationen finden Sie unter [Verwenden einer PostgreSQL-Datenbank als Ziel für den AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html). | Allgemeines AWS | 
| Testen Sie die Endpunkte. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | Allgemeines AWS | 
| Erstellen Sie Migrationsaufgaben. | Gehen Sie wie folgt vor, um eine Migrationsaufgabe für Volllast und Change Data Capture (CDC) oder für die Datenvalidierung zu erstellen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | Allgemeines AWS | 
| Planen Sie den Produktionslauf. | Bestätigen Sie Ausfallzeiten mit Stakeholdern wie Anwendungsbesitzern, um AWS DMS in Produktionssystemen auszuführen. | Leiter der Migration | 
| Führen Sie die -Migrationsaufgabe aus. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | Allgemeines AWS | 
| Validieren Sie die Daten. | Überprüfen Sie die Ergebnisse und Daten der Migrationsaufgaben in den Oracle-Quelldatenbanken und den PostgreSQL-Zieldatenbanken:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | DBA | 
| Beenden Sie die Migrationsaufgabe. | Nachdem Sie die Datenüberprüfung erfolgreich abgeschlossen haben, beenden Sie die Migrationsaufgabe. | Allgemeines AWS | 

### Säubere die Ressourcen
<a name="clean-up-the-resources"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Löschen Sie die AWS DMS-Aufgaben. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | Allgemeines AWS | 
| Löschen Sie die AWS DMS-Endpunkte. | **Wählen Sie die Quell- und Zielendpunkte aus, die Sie erstellt haben, wählen Sie **Aktionen** und dann Löschen aus.** | Allgemeines AWS | 
| Löschen Sie die AWS DMS-Replikationsinstanz. | Wählen Sie die Replikationsinstanz aus, klicken Sie auf **Aktionen** und dann auf **Löschen**. | Allgemeines AWS | 
| Löschen Sie die PostgreSQL-Datenbank. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | Allgemeines AWS | 
| Löschen Sie die Oracle-Datenbank. | Wählen Sie in der Amazon RDS-Konsole die Oracle-Datenbank-Instance aus, klicken Sie auf **Actions** und anschließend auf **Delete**. | Allgemeines AWS | 

## Fehlerbehebung
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Die Quell- und Zieltestverbindungen von AWS SCT schlagen fehl. | Konfigurieren Sie JDBC-Treiberversionen und eingehende VPC-Sicherheitsgruppenregeln, um den eingehenden Datenverkehr zu akzeptieren. | 
| Der Testlauf für den Oracle-Quellendpunkt schlägt fehl. | Überprüfen Sie die Endpunkteinstellungen und ob die Replikationsinstanz verfügbar ist. | 
| Der Volllastlauf der AWS DMS-Aufgabe schlägt fehl. | Prüfen Sie, ob die Quell- und Zieldatenbanken übereinstimmende Datentypen und Größen haben. | 
| Die AWS DMS-Validierungs-Migrationsaufgabe gibt Fehler zurück. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.html) | 

## Zugehörige Ressourcen
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms-resources"></a>

**Datenbanken**
+ [Amazon RDS für Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html) 
+ [Amazon RDS für PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html)

**SSL-DB-Verbindung**
+ [Wird verwendet SSL/TLS , um eine Verbindung zu einer DB-Instance zu verschlüsseln](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/UsingWithRDS.SSL.html)
  + [Verwenden von SSL mit einer RDS für Oracle-DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Oracle.Concepts.SSL.html)
  + [Verbindungen zu RDS für PostgreSQL mit SSL/TLS sichern](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/PostgreSQL.Concepts.General.Security.html)
  + [Laden Sie Zertifikatspakete für bestimmte AWS-Regionen herunter](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/UsingWithRDS.SSL.html#UsingWithRDS.SSL.CertificatesAllRegions)
    + [Laden Sie das CA-2019-Stammzertifikat](https://s3.amazonaws.com/rds-downloads/rds-ca-2019-root.pem) herunter (im August 2024 abgelaufen)
+ [Arbeiten mit Optionsgruppen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_WorkingWithOptionGroups.html)
  + [Optionen zu Oracle-DB-Instances hinzufügen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Appendix.Oracle.Options.html)
  + [Oracle Secure Sockets Layer](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Appendix.Oracle.Options.SSL.html)
+ [Mit Parametergruppen arbeiten](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_WorkingWithParamGroups.html)
+ [PostgreSQL-Verbindungsparameter sslmode](https://www.postgresql.org/docs/11/libpq-connect.html#LIBPQ-CONNECT-SSLMODE)
+ [SSL von JDBC aus verwenden](https://jdbc.postgresql.org/documentation/ssl/)
+ [Rotation Ihres Zertifikats SSL/TLS ](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/UsingWithRDS.SSL-certificate-rotation.html)
  + [Aktualisierung Ihres CA-Zertifikats durch Änderung Ihrer DB-Instance oder Ihres Clusters](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/UsingWithRDS.SSL-certificate-rotation.html#UsingWithRDS.SSL-certificate-rotation-updating)
  + [Aktualisierung Ihres CA-Zertifikats durch Wartung](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/UsingWithRDS.SSL-certificate-rotation.html#UsingWithRDS.SSL-certificate-rotation-maintenance-update)

**AWS SCT**
+ [AWS-Schemakonvertierungstool](https://aws.amazon.com/dms/schema-conversion-tool/)
+ [Benutzerhandbuch für das AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ [Verwenden der AWS SCT-Benutzeroberfläche](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html)
+ [Verwendung von Oracle Database als Quelle für AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.html)

**AWS DMS**
+ [AWS Database Migration Service](https://aws.amazon.com/dms/)
+ [AWS Database Migration Service — Benutzerhandbuch](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
  + [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
  + [Verwenden einer PostgreSQL-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html)
+ [Verwenden von SSL mit AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Security.SSL.html)
+ [Migrieren von Anwendungen, auf denen relationale Datenbanken ausgeführt werden, zu AWS](https://d1.awsstatic.com/whitepapers/Migration/migrating-applications-to-aws.pdf)

## Zusätzliche Informationen
<a name="migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms-additional"></a>

Die Zertifikate der Amazon RDS Certificate Authority `rds-ca-2019` sind im August 2024 abgelaufen. Wenn Sie SSL oder TLS mit Zertifikatsüberprüfung verwenden oder verwenden möchten, um eine Verbindung zu Ihren RDS-DB-Instances oder Multi-AZ-DB-Clustern herzustellen, sollten Sie die Verwendung eines der neuen CA-Zertifikate in Betracht ziehen:`rds-ca-rsa2048-g1`,`rds-ca-rsa4096-g1`, oder`rds-ca-ecc384-g1`.

# Migrieren Sie Oracle SERIALLY\$1REUSABLE Pragma-Pakete nach PostgreSQL
<a name="migrate-oracle-serially-reusable-pragma-packages-into-postgresql"></a>

*Vinay Paladi, Amazon Web Services*

## Zusammenfassung
<a name="migrate-oracle-serially-reusable-pragma-packages-into-postgresql-summary"></a>

Dieses Muster bietet einen step-by-step Ansatz für die Migration von Oracle-Paketen, die als SERIALLY\$1REUSABLE Pragma definiert sind, nach PostgreSQL auf Amazon Web Services (AWS). Bei diesem Ansatz wird die Funktionalität des Pragmas SERIALLY\$1REUSABLE beibehalten.

PostgreSQL unterstützt das Konzept von Paketen und das Pragma SERIALLY\$1REUSABLE nicht. Um ähnliche Funktionen in PostgreSQL zu erhalten, können Sie Schemas für Pakete erstellen und alle zugehörigen Objekte (wie Funktionen, Prozeduren und Typen) innerhalb der Schemas bereitstellen. Um die Funktionalität des Pragmas SERIALLY\$1REUSABLE zu erreichen, verwendet das in diesem Muster bereitgestellte Beispiel-Wrapper-Funktionsskript ein [AWS Schema Conversion Tool (AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_ExtensionPack.html)) -Erweiterungspaket.

Weitere Informationen finden Sie unter [SERIALLY\$1REUSABLE](https://docs.oracle.com/cd/B13789_01/appdev.101/b10807/13_elems046.htm) Pragma in der Oracle-Dokumentation.

## Voraussetzungen und Einschränkungen
<a name="migrate-oracle-serially-reusable-pragma-packages-into-postgresql-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Die neueste Version von AWS SCT und die erforderlichen Treiber
+ Eine Amazon Aurora PostgreSQL-kompatible Edition-Datenbank oder ein Amazon Relational Database Service (Amazon RDS) für PostgreSQL-Datenbank 

**Produktversionen**
+ Oracle Database Version 10g und höher

## Architektur
<a name="migrate-oracle-serially-reusable-pragma-packages-into-postgresql-architecture"></a>

**Quelltechnologie-Stack**
+ Oracle-Datenbank vor Ort

**Zieltechnologie-Stack**
+ [Aurora PostgreSQL-kompatibel](https://aws.amazon.com/rds/aurora/details/postgresql-details/) oder Amazon RDS für PostgreSQL
+ AWS SCT

**Migrationsarchitektur**

![\[Lokale Oracle-DB-Daten werden mithilfe von AWS SCT-, .sql-Dateien, manueller Konvertierung nach PostgreSQL an AWS gesendet.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/fe3c45d2-6ea4-43b5-adb1-18f068f126b9/images/2dc90708-e300-4251-9d12-de97b6588b72.png)


## Tools
<a name="migrate-oracle-serially-reusable-pragma-packages-into-postgresql-tools"></a>

**AWS-Services**
+ Das [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist.
+ [Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, ACID-konforme relationale Datenbank-Engine, die Sie bei der Einrichtung, dem Betrieb und der Skalierung von PostgreSQL-Bereitstellungen unterstützt.
+ [Amazon Relational Database Service (Amazon RDS) für PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen PostgreSQL-Datenbank in der AWS-Cloud.

**Andere Tools**
+ [pgAdmin](https://www.pgadmin.org/) ist ein Open-Source-Verwaltungstool für PostgreSQL. Es bietet eine grafische Oberfläche, mit der Sie Datenbankobjekte erstellen, verwalten und verwenden können.

## Epen
<a name="migrate-oracle-serially-reusable-pragma-packages-into-postgresql-epics"></a>

### Migrieren Sie das Oracle-Paket mithilfe von AWS SCT
<a name="migrate-the-oracle-package-by-using-aws-sct"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie AWS SCT ein. | Konfigurieren Sie die AWS SCT-Konnektivität zur Quelldatenbank. Weitere Informationen finden Sie unter [Verwenden von Oracle Database als Quelle für AWS SCT.](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.html) | DBA, Entwickler | 
| Konvertiert das Skript. | Verwenden Sie AWS SCT, um das Oracle-Paket zu konvertieren, indem Sie die Zieldatenbank als Aurora PostgreSQL-kompatibel auswählen. | DBA, Entwickler | 
| Speichern Sie die .sql-Dateien. | Bevor Sie die SQL-Datei speichern, ändern Sie die Option **Projekteinstellungen** in AWS SCT auf **Einzelne Datei pro Phase**. AWS SCT teilt die .sql-Datei je nach Objekttyp in mehrere .sql-Dateien auf. | DBA, Entwickler | 
| Ändern Sie den Code. | Öffnen Sie die von AWS SCT generierte `init` Funktion und ändern Sie sie, wie im Beispiel im Abschnitt *Zusätzliche Informationen* gezeigt. Es wird eine Variable hinzugefügt, um die Funktionalität `pg_serialize = 0` zu erreichen. | DBA, Entwickler | 
| Testen Sie die Konvertierung. | Stellen Sie die `init` Funktion in der Aurora PostgreSQL-kompatiblen Datenbank bereit und testen Sie die Ergebnisse. | DBA, Entwickler | 

## Zugehörige Ressourcen
<a name="migrate-oracle-serially-reusable-pragma-packages-into-postgresql-resources"></a>
+ [AWS-Schemakonvertierungstool](https://aws.amazon.com/dms/schema-conversion-tool/)
+ [Amazon RDS](https://aws.amazon.com/rds/)
+ [Funktionen von Amazon Aurora](https://aws.amazon.com/rds/aurora/postgresql-features/)
+ [SERIALLY\$1REUSABLE Pragma](https://docs.oracle.com/cd/B28359_01/appdev.111/b28370/seriallyreusable_pragma.htm#LNPLS01346)

## Zusätzliche Informationen
<a name="migrate-oracle-serially-reusable-pragma-packages-into-postgresql-additional"></a>

```
Source Oracle Code:

CREATE OR REPLACE PACKAGE test_pkg_var
IS
PRAGMA SERIALLY_REUSABLE;
PROCEDURE function_1
 (test_id number);
PROCEDURE function_2
 (test_id number
 );
END;

CREATE OR REPLACE PACKAGE BODY test_pkg_var
IS
PRAGMA SERIALLY_REUSABLE;
v_char VARCHAR2(20) := 'shared.airline';
v_num number := 123;

PROCEDURE function_1(test_id number)
IS
begin
dbms_output.put_line( 'v_char-'|| v_char);
dbms_output.put_line( 'v_num-'||v_num);
v_char:='test1';
function_2(0);
END;

PROCEDURE function_2(test_id number)
is
begin
dbms_output.put_line( 'v_char-'|| v_char);
dbms_output.put_line( 'v_num-'||v_num);
END;
END test_pkg_var;

Calling the above functions

set serveroutput on


EXEC test_pkg_var.function_1(1);


EXEC test_pkg_var.function_2(1);


Target Postgresql Code:


CREATE SCHEMA test_pkg_var;

CREATE OR REPLACE FUNCTION test_pkg_var.init(pg_serialize IN INTEGER DEFAULT 0)

RETURNS void
AS
$BODY$

DECLARE

BEGIN

if aws_oracle_ext.is_package_initialized( 'test_pkg_var' ) AND pg_serialize = 0

then

return;

end if;

PERFORM aws_oracle_ext.set_package_initialized( 'test_pkg_var' );

PERFORM aws_oracle_ext.set_package_variable( 'test_pkg_var', 'v_char', 'shared.airline.basecurrency'::CHARACTER

VARYING(100));

PERFORM aws_oracle_ext.set_package_variable('test_pkg_var', 'v_num', 123::integer);

END;

$BODY$

LANGUAGE plpgsql;


CREATE OR REPLACE FUNCTION test_pkg_var.function_1(pg_serialize int default 1)

RETURNS void
AS

$BODY$
DECLARE

BEGIN

PERFORM test_pkg_var.init(pg_serialize);

raise notice 'v_char%',aws_oracle_ext.get_package_variable( 'test_pkg_var', 'v_char');

raise notice 'v_num%',aws_oracle_ext.get_package_variable( 'test_pkg_var', 'v_num');

PERFORM aws_oracle_ext.set_package_variable( 'test_pkg_var', 'v_char', 'test1'::varchar);

PERFORM test_pkg_var.function_2(0);
END;

$BODY$
LANGUAGE plpgsql;


CREATE OR REPLACE FUNCTION test_pkg_var.function_2(IN pg_serialize integer default 1)

RETURNS void

AS

$BODY$

DECLARE

BEGIN

PERFORM test_pkg_var.init(pg_serialize);

raise notice 'v_char%',aws_oracle_ext.get_package_variable( 'test_pkg_var', 'v_char');

raise notice 'v_num%',aws_oracle_ext.get_package_variable( 'test_pkg_var', 'v_num');

END;
$BODY$
LANGUAGE plpgsql;


Calling the above functions

select test_pkg_var.function_1()

 select test_pkg_var.function_2()
```

# Migrieren Sie externe Oracle-Tabellen zu Amazon Aurora PostgreSQL-kompatibel
<a name="migrate-oracle-external-tables-to-amazon-aurora-postgresql-compatible"></a>

*Anuradha Chintha und Rakesh Raghav, Amazon Web Services*

## Zusammenfassung
<a name="migrate-oracle-external-tables-to-amazon-aurora-postgresql-compatible-summary"></a>

Externe Tabellen geben Oracle die Möglichkeit, Daten abzufragen, die außerhalb der Datenbank in Flatfiles gespeichert sind. Sie können den ORACLE\$1LOADER-Treiber verwenden, um auf alle Daten zuzugreifen, die in einem beliebigen Format gespeichert sind und vom SQL\$1Loader-Hilfsprogramm geladen werden können. Sie können Data Manipulation Language (DML) nicht für externe Tabellen verwenden, aber Sie können externe Tabellen für Abfrage-, Join- und Sortieroperationen verwenden.

Amazon Aurora PostgreSQL-Compatible Edition bietet keine ähnliche Funktionalität wie externe Tabellen in Oracle. Stattdessen müssen Sie die Modernisierung nutzen, um eine skalierbare Lösung zu entwickeln, die funktionale Anforderungen erfüllt und sparsam ist.

Dieses Muster enthält Schritte für die Migration verschiedener Typen von externen Oracle-Tabellen zur Aurora PostgreSQL-kompatiblen Edition in der Amazon Web Services (AWS) Cloud mithilfe der Erweiterung. `aws_s3`

Wir empfehlen, diese Lösung gründlich zu testen, bevor Sie sie in einer Produktionsumgebung implementieren.

## Voraussetzungen und Einschränkungen
<a name="migrate-oracle-external-tables-to-amazon-aurora-postgresql-compatible-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ AWS-Befehlszeilenschnittstelle (AWS Command Line Interface, AWS CLI)
+ Eine verfügbare Aurora PostgreSQL-kompatible Datenbankinstanz.
+ Eine lokale Oracle-Datenbank mit einer externen Tabelle
+ PG.Client-API
+ Datendateien 

**Einschränkungen**
+ Dieses Muster bietet nicht die Funktionalität, um externe Oracle-Tabellen zu ersetzen. Die Schritte und der Beispielcode können jedoch weiter verbessert werden, um Ihre Ziele bei der Datenbankmodernisierung zu erreichen.
+ Dateien sollten nicht das Zeichen enthalten, das in `aws_s3` Export- und Importfunktionen als Trennzeichen übergeben wird.

**Produktversionen**
+ Um aus Amazon S3 in RDS for PostgreSQL zu importieren, muss auf der Datenbank PostgreSQL Version 10.7 oder höher ausgeführt werden.

## Architektur
<a name="migrate-oracle-external-tables-to-amazon-aurora-postgresql-compatible-architecture"></a>

**Quelltechnologie-Stack**
+ Oracle

**Quellarchitektur**

![\[Diagramm der Datendateien, die in ein Verzeichnis und eine Tabelle in der lokalen Oracle-Datenbank verschoben werden.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/555e69af-36fc-4ff5-b66c-af22b4cf262a/images/3fbc507d-b0fa-4e05-b999-043dc7327ed7.png)


**Zieltechnologie-Stack**
+ Amazon Aurora PostgreSQL-kompatibel
+ Amazon CloudWatch
+ AWS Lambda
+ AWS Secrets Manager
+ Amazon-Simple-Notification-Service (Amazon-SNS)
+ Amazon Simple Storage Service (Amazon-S3)

**Zielarchitektur**

Das folgende Diagramm zeigt eine allgemeine Darstellung der Lösung.

![\[Die Beschreibung befindet sich hinter dem Diagramm.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/555e69af-36fc-4ff5-b66c-af22b4cf262a/images/5421540e-d2e3-4361-89cc-d8415fcb21fd.png)


1. Dateien werden in den S3-Bucket hochgeladen.

1. Die Lambda-Funktion wird initiiert.

1. Die Lambda-Funktion initiiert den DB-Funktionsaufruf.

1. Secrets Manager stellt die Anmeldeinformationen für den Datenbankzugriff bereit.

1. Abhängig von der DB-Funktion wird ein SNS-Alarm ausgelöst.

**Automatisierung und Skalierung**

Alle Ergänzungen oder Änderungen an den externen Tabellen können mit der Metadatenpflege behandelt werden.

## Tools
<a name="migrate-oracle-external-tables-to-amazon-aurora-postgresql-compatible-tools"></a>
+ [Amazon Aurora PostgreSQL-kompatibel — Amazon Aurora PostgreSQL-Compatible](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_AuroraOverview.html) Edition ist eine vollständig verwaltete, PostgreSQL-kompatible und ACID-konforme relationale Datenbank-Engine, die die Geschwindigkeit und Zuverlässigkeit kommerzieller High-End-Datenbanken mit der Kosteneffizienz von Open-Source-Datenbanken kombiniert.
+ [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-welcome.html) — AWS Command Line Interface (AWS CLI) ist ein einheitliches Tool zur Verwaltung Ihrer AWS-Services. Mit nur einem Tool zum Herunterladen und Konfigurieren können Sie mehrere AWS-Services von der Befehlszeile aus steuern und über Skripts automatisieren.
+ [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) — Amazon CloudWatch überwacht die Ressourcen und die Nutzung von Amazon S3.
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html) — AWS Lambda ist ein serverloser Rechenservice, der die Ausführung von Code ohne Bereitstellung oder Verwaltung von Servern, die Erstellung einer auslastungsorientierten Cluster-Skalierungslogik, die Verwaltung von Eventintegrationen oder die Verwaltung von Laufzeiten unterstützt. In diesem Muster führt Lambda die Datenbankfunktion immer dann aus, wenn eine Datei auf Amazon S3 hochgeladen wird.
+ [AWS Secrets Manager](https://docs.aws.amazon.com/secretsmanager/latest/userguide/intro.html) — AWS Secrets Manager ist ein Service zum Speichern und Abrufen von Anmeldeinformationen. Mit Secrets Manager können Sie hartcodierte Anmeldeinformationen in Ihrem Code, einschließlich Kennwörtern, durch einen API-Aufruf an Secrets Manager ersetzen, um das Geheimnis programmgesteuert abzurufen.
+ [Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) — Amazon Simple Storage Service (Amazon S3) bietet eine Speicherebene zum Empfangen und Speichern von Dateien zur Nutzung und Übertragung zum und vom Aurora PostgreSQL-kompatiblen Cluster.
+ [aws\$1s3](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/PostgreSQL.Procedural.Importing.html#aws_s3.table_import_from_s3) — Die `aws_s3` Erweiterung integriert Amazon S3 und Aurora PostgreSQL-kompatibel.
+ [Amazon SNS](https://docs.aws.amazon.com/sns/latest/dg/welcome.html) — Amazon Simple Notification Service (Amazon SNS) koordiniert und verwaltet die Zustellung oder den Versand von Nachrichten zwischen Herausgebern und Kunden. In diesem Muster wird Amazon SNS zum Senden von Benachrichtigungen verwendet.

**Code**

Immer wenn eine Datei im S3-Bucket platziert wird, muss eine DB-Funktion erstellt und von der verarbeitenden Anwendung oder der Lambda-Funktion aus aufgerufen werden. Einzelheiten finden Sie im Code (beigefügt).

## Epen
<a name="migrate-oracle-external-tables-to-amazon-aurora-postgresql-compatible-epics"></a>

### Erstellen Sie eine externe Datei
<a name="create-an-external-file"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fügen Sie der Quelldatenbank eine externe Datei hinzu. | Erstellen Sie eine externe Datei und verschieben Sie sie in das `oracle` Verzeichnis. | DBA | 

### Das Ziel konfigurieren (Aurora PostgreSQL-kompatibel)
<a name="configure-the-target-aurora-postgresql-compatible"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Aurora PostgreSQL-Datenbank. | Erstellen Sie eine DB-Instance in Ihrem Amazon Aurora PostgreSQL-kompatiblen Cluster. | DBA | 
| Erstellen Sie ein Schema, die Erweiterung aws\$1s3 und Tabellen. | Verwenden Sie den Code unter `ext_tbl_scripts` dem Abschnitt *Zusätzliche Informationen*. Die Tabellen enthalten tatsächliche Tabellen, Staging-Tabellen, Fehler- und Protokolltabellen sowie eine Metatabelle. | DBA, Entwickler | 
| Erstellen Sie die DB-Funktion. | Um die DB-Funktion zu erstellen, verwenden Sie den Code unter `load_external_table_latest` Funktion im Abschnitt *Zusätzliche Informationen*. | DBA, Entwickler | 

### Die Lambda-Funktion erstellen und konfigurieren
<a name="create-and-configure-the-lambda-function"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Rolle. | Erstellen Sie eine Rolle mit Zugriffsberechtigungen für Amazon S3 und Amazon Relational Database Service (Amazon RDS). Diese Rolle wird Lambda für die Ausführung des Musters zugewiesen. | DBA | 
| So erstellen Sie die Lambda-Funktion: | Erstellen Sie eine Lambda-Funktion, die den Dateinamen aus Amazon S3 liest (z. B.`file_key = info.get('object', {}).get('key')`) und die DB-Funktion (z. B.`curs.callproc("load_external_tables", [file_key])`) mit dem Dateinamen als Eingabeparameter aufruft.Abhängig vom Ergebnis des Funktionsaufrufs wird eine SNS-Benachrichtigung ausgelöst (z. B.`client.publish(TopicArn='arn:',Message='fileloadsuccess',Subject='fileloadsuccess')`).Basierend auf Ihren Geschäftsanforderungen können Sie bei Bedarf eine Lambda-Funktion mit zusätzlichem Code erstellen. Weitere Informationen finden Sie in der [Lambda-Dokumentation](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html). | DBA | 
| Konfigurieren Sie einen S3-Bucket-Ereignisauslöser. | Konfigurieren Sie einen Mechanismus zum Aufrufen der Lambda-Funktion für alle Objekterstellungsereignisse im S3-Bucket. | DBA | 
| Erstelle ein Geheimnis. | Erstellen Sie mit Secrets Manager einen geheimen Namen für die Datenbankanmeldedaten. Übergeben Sie das Geheimnis in der Lambda-Funktion. | DBA | 
| Laden Sie die Lambda-Unterstützungsdateien hoch. | Laden Sie eine ZIP-Datei hoch, die die Lambda-Support-Pakete und das angehängte Python-Skript für die Verbindung mit Aurora PostgreSQL-kompatibel enthält. Der Python-Code ruft die Funktion auf, die Sie in der Datenbank erstellt haben. | DBA | 
| Erstellen Sie ein SNS-Thema. | Erstellen Sie ein SNS-Thema, um E-Mails über den Erfolg oder Misserfolg des Datenladens zu senden. | DBA | 

### Integration mit Amazon S3 hinzufügen
<a name="add-integration-with-amazon-s3"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen S3-Bucket. | Erstellen Sie auf der Amazon S3 S3-Konsole einen S3-Bucket mit einem eindeutigen Namen, der keine führenden Schrägstriche enthält. Ein S3-Bucket-Name ist weltweit eindeutig, und der Namespace wird von allen AWS-Konten gemeinsam genutzt. | DBA | 
| Erstellen Sie IAM-Richtlinien. | Verwenden Sie den Code unter `s3bucketpolicy_for_import` dem Abschnitt *Zusätzliche Informationen*, um die AWS Identity and Access Management (IAM) -Richtlinien zu erstellen. | DBA | 
| Rollen erstellen. | Erstellen Sie zwei Rollen für Aurora PostgreSQL-kompatibel, eine Rolle für Import und eine Rolle für Export. Weisen Sie den Rollen die entsprechenden Richtlinien zu. | DBA | 
| Hängen Sie die Rollen an den Aurora PostgreSQL-kompatiblen Cluster an. | Fügen **Sie unter Rollen verwalten** die Import- und Exportrollen dem Aurora PostgreSQL-Cluster hinzu. | DBA | 
| Erstellen Sie unterstützende Objekte für Aurora PostgreSQL-kompatibel. | *Verwenden Sie für die Tabellenskripten den Code unter dem Abschnitt `ext_tbl_scripts` Zusätzliche Informationen.*Verwenden Sie für die benutzerdefinierte Funktion den Code `load_external_Table_latest` unter dem Abschnitt *Zusätzliche Informationen*. | DBA | 

### Verarbeiten Sie eine Testdatei
<a name="process-a-test-file"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie eine Datei in den S3-Bucket hoch. | Verwenden Sie die Konsole oder den folgenden Befehl in der AWS-CLI, um eine Testdatei in den S3-Bucket hochzuladen. <pre>aws s3 cp /Users/Desktop/ukpost/exttbl/"testing files"/aps s3://s3importtest/inputext/aps</pre>Sobald die Datei hochgeladen wurde, initiiert ein Bucket-Ereignis die Lambda-Funktion, die die Aurora PostgreSQL-kompatible Funktion ausführt. | DBA | 
| Überprüfen Sie die Daten sowie die Protokoll- und Fehlerdateien. | Die Aurora PostgreSQL-kompatible Funktion lädt die Dateien in die Haupttabelle `.log` und erstellt `.bad` Dateien im S3-Bucket. | DBA | 
| Überwachen Sie die Lösung. | Überwachen Sie in der CloudWatch Amazon-Konsole die Lambda-Funktion. | DBA | 

## Zugehörige Ressourcen
<a name="migrate-oracle-external-tables-to-amazon-aurora-postgresql-compatible-resources"></a>
+ [Amazon S3 S3-Integration](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/oracle-s3-integration.html)
+ [Amazon S3](https://aws.amazon.com/s3/)
+ [Arbeiten mit Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html)
+ [AWS Lambda](https://aws.amazon.com/lambda/)
+ [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/)
+ [AWS Secrets Manager](https://aws.amazon.com/secrets-manager/)
+ [Amazon SNS SNS-Benachrichtigungen einrichten](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/US_SetupSNS.html)

## Zusätzliche Informationen
<a name="migrate-oracle-external-tables-to-amazon-aurora-postgresql-compatible-additional"></a>

**ext\$1table\$1scripts**

```
CREATE EXTENSION aws_s3 CASCADE;
CREATE TABLE IF NOT EXISTS meta_EXTERNAL_TABLE
(
    table_name_stg character varying(100) ,
    table_name character varying(100)  ,
    col_list character varying(1000)  ,
    data_type character varying(100)  ,
    col_order numeric,
    start_pos numeric,
    end_pos numeric,
    no_position character varying(100)  ,
    date_mask character varying(100)  ,
    delimeter character(1)  ,
    directory character varying(100)  ,
    file_name character varying(100)  ,
    header_exist character varying(5)
);
CREATE TABLE IF NOT EXISTS ext_tbl_stg
(
    col1 text
);
CREATE TABLE IF NOT EXISTS error_table
(
    error_details text,
    file_name character varying(100),
    processed_time timestamp without time zone
);
CREATE TABLE IF NOT EXISTS log_table
(
    file_name character varying(50) COLLATE pg_catalog."default",
    processed_date timestamp without time zone,
    tot_rec_count numeric,
    proc_rec_count numeric,
    error_rec_count numeric
);
sample insert scripts of meta data:
INSERT INTO meta_EXTERNAL_TABLE (table_name_stg, table_name, col_list, data_type, col_order, start_pos, end_pos, no_position, date_mask, delimeter, directory, file_name, header_exist) VALUES ('F_EX_APS_TRANSACTIONS_STG', 'F_EX_APS_TRANSACTIONS', 'source_filename', 'character varying', 2, 8, 27, NULL, NULL, NULL, 'databasedev', 'externalinterface/loaddir/APS', 'NO');
INSERT INTO meta_EXTERNAL_TABLE (table_name_stg, table_name, col_list, data_type, col_order, start_pos, end_pos, no_position, date_mask, delimeter, directory, file_name, header_exist) VALUES ('F_EX_APS_TRANSACTIONS_STG', 'F_EX_APS_TRANSACTIONS', 'record_type_identifier', 'character varying', 3, 28, 30, NULL, NULL, NULL, 'databasedev', 'externalinterface/loaddir/APS', 'NO');
INSERT INTO meta_EXTERNAL_TABLE (table_name_stg, table_name, col_list, data_type, col_order, start_pos, end_pos, no_position, date_mask, delimeter, directory, file_name, header_exist) VALUES ('F_EX_APS_TRANSACTIONS_STG', 'F_EX_APS_TRANSACTIONS', 'fad_code', 'numeric', 4, 31, 36, NULL, NULL, NULL, 'databasedev', 'externalinterface/loaddir/APS', 'NO');
INSERT INTO meta_EXTERNAL_TABLE (table_name_stg, table_name, col_list, data_type, col_order, start_pos, end_pos, no_position, date_mask, delimeter, directory, file_name, header_exist) VALUES ('F_EX_APS_TRANSACTIONS_STG', 'F_EX_APS_TRANSACTIONS', 'session_sequence_number', 'numeric', 5, 37, 42, NULL, NULL, NULL, 'databasedev', 'externalinterface/loaddir/APS', 'NO');
INSERT INTO meta_EXTERNAL_TABLE (table_name_stg, table_name, col_list, data_type, col_order, start_pos, end_pos, no_position, date_mask, delimeter, directory, file_name, header_exist) VALUES ('F_EX_APS_TRANSACTIONS_STG', 'F_EX_APS_TRANSACTIONS', 'transaction_sequence_number', 'numeric', 6, 43, 48, NULL, NULL, NULL, 'databasedev', 'externalinterface/loaddir/APS', 'NO');
```

**s3bucketpolicy\$1für den Import**

```
---Import role policy
--Create an IAM policy to allow, Get,  and list actions on S3 bucket
 {
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "s3import",
            "Action": [
                "s3:GetObject",
                "s3:ListBucket"
            ],
            "Effect": "Allow",
            "Resource": [
                "arn:aws:s3:::s3importtest",
                "arn:aws:s3:::s3importtest/*"
            ]
        }
    ]
}
--Export Role policy
--Create an IAM policy to allow, put,  and list actions on S3 bucket
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "s3export",
            "Action": [
                "S3:PutObject",
                "s3:ListBucket"
            ],
            "Effect": "Allow",
            "Resource": [
                "arn:aws:s3:::s3importtest/*"
            ]
        }
    ]
}
```

**Beispiel für eine DB-Funktion load\$1external\$1tables\$1latest**

```
CREATE OR REPLACE FUNCTION public.load_external_tables(pi_filename text)
 RETURNS character varying
 LANGUAGE plpgsql
AS $function$
/* Loading data from S3 bucket into a APG table */
DECLARE
 v_final_sql TEXT;
 pi_ext_table TEXT;
 r refCURSOR;
 v_sqlerrm text;
 v_chunk numeric;
 i integer;
 v_col_list TEXT;
 v_postion_list CHARACTER VARYING(1000);
 v_len  integer;
 v_delim varchar;
 v_file_name CHARACTER VARYING(1000);
 v_directory CHARACTER VARYING(1000);
 v_table_name_stg CHARACTER VARYING(1000);
 v_sql_col TEXT;
 v_sql TEXT;
 v_sql1 TEXT;
 v_sql2 TEXT;
 v_sql3 TEXT;
 v_cnt integer;
 v_sql_dynamic TEXT;
 v_sql_ins TEXT;
 proc_rec_COUNT integer;
 error_rec_COUNT integer;
 tot_rec_COUNT integer;
 v_rec_val integer;
 rec record;
 v_col_cnt integer;
 kv record;
 v_val text;
 v_header text;
 j integer;
 ERCODE VARCHAR(5);
 v_region text;
 cr CURSOR FOR
 SELECT distinct DELIMETER,
   FILE_NAME,
   DIRECTORY
 FROM  meta_EXTERNAL_TABLE
 WHERE table_name = pi_ext_table
   AND DELIMETER IS NOT NULL;


 cr1 CURSOR FOR
   SELECT   col_list,
   data_type,
   start_pos,
   END_pos,
   concat_ws('',' ',TABLE_NAME_STG) as TABLE_NAME_STG,
   no_position,date_mask
 FROM  meta_EXTERNAL_TABLE
 WHERE table_name = pi_ext_table
 order by col_order asc;
cr2 cursor FOR
SELECT  distinct table_name,table_name_stg
   FROM  meta_EXTERNAL_TABLE
   WHERE upper(file_name) = upper(pi_filename);


BEGIN
 -- PERFORM utl_file_utility.init();
   v_region := 'us-east-1';
   /* find tab details from file name */


   --DELETE FROM  ERROR_TABLE WHERE file_name= pi_filename;
  -- DELETE FROM  log_table WHERE file_name= pi_filename;


 BEGIN


   SELECT distinct table_name,table_name_stg INTO strict pi_ext_table,v_table_name_stg
   FROM  meta_EXTERNAL_TABLE
   WHERE upper(file_name) = upper(pi_filename);
 EXCEPTION
   WHEN NO_DATA_FOUND THEN
    raise notice 'error 1,%',sqlerrm;
    pi_ext_table := null;
    v_table_name_stg := null;
      RAISE USING errcode = 'NTFIP' ;
    when others then
        raise notice 'error others,%',sqlerrm;
 END;
 j :=1 ;
  
for rec in  cr2
 LOOP




  pi_ext_table     := rec.table_name;
  v_table_name_stg := rec.table_name_stg;
  v_col_list := null;


 IF pi_ext_table IS NOT NULL
  THEN
    --EXECUTE concat_ws('','truncate table  ' ,pi_ext_table) ;
   EXECUTE concat_ws('','truncate table  ' ,v_table_name_stg) ;




       SELECT distinct DELIMETER INTO STRICT v_delim
       FROM  meta_EXTERNAL_TABLE
       WHERE table_name = pi_ext_table;


       IF v_delim IS NOT NULL THEN
     SELECT distinct DELIMETER,
       FILE_NAME,
       DIRECTORY ,
       concat_ws('',' ',table_name_stg),
       case  header_exist when 'YES' then 'CSV HEADER' else 'CSV' end as header_exist
     INTO STRICT v_delim,v_file_name,v_directory,v_table_name_stg,v_header
     FROM  meta_EXTERNAL_TABLE
     WHERE table_name = pi_ext_table
       AND DELIMETER IS NOT NULL;


     IF    upper(v_delim) = 'CSV'
     THEN
       v_sql := concat_ws('','SELECT aws_s3.table_import_FROM_s3 ( ''',
       v_table_name_stg,''','''',
       ''DELIMITER '''','''' CSV HEADER QUOTE ''''"'''''', aws_commons.create_s3_uri ( ''',
       v_directory,''',''',v_file_name,''', ''',v_region,'''))');
       ELSE
       v_sql := concat_ws('','SELECT aws_s3.table_import_FROM_s3(''',
           v_table_name_stg, ''','''', ''DELIMITER AS ''''^''''',''',','
          aws_commons.create_s3_uri
           ( ''',v_directory, ''',''',
           v_file_name, ''',',
            '''',v_region,''')
          )');
          raise notice 'v_sql , %',v_sql;
       begin
        EXECUTE  v_sql;
       EXCEPTION
         WHEN OTHERS THEN
           raise notice 'error 1';
         RAISE USING errcode = 'S3IMP' ;
       END;


       select count(col_list) INTO v_col_cnt
       from  meta_EXTERNAL_TABLE where table_name = pi_ext_table;






        -- raise notice 'v_sql 2, %',concat_ws('','update ',v_table_name_stg, ' set col1 = col1||''',v_delim,'''');


       execute concat_ws('','update ',v_table_name_stg, ' set col1 = col1||''',v_delim,'''');




       i :=1;
       FOR rec in cr1
       loop
       v_sql1 := concat_ws('',v_sql1,'split_part(col1,''',v_delim,''',', i,')',' as ',rec.col_list,',');
       v_sql2 := concat_ws('',v_sql2,rec.col_list,',');
   --    v_sql3 := concat_ws('',v_sql3,'rec.',rec.col_list,'::',rec.data_type,',');


       case
         WHEN upper(rec.data_type) = 'NUMERIC'
         THEN v_sql3 := concat_ws('',v_sql3,' case WHEN length(trim(split_part(col1,''',v_delim,''',', i,'))) =0
                THEN null
                 ELSE
                 coalesce((trim(split_part(col1,''',v_delim,''',', i,')))::NUMERIC,0)::',rec.data_type,' END as ',rec.col_list,',') ;
         WHEN UPPER(rec.data_type) = 'TIMESTAMP WITHOUT TIME ZONE' AND rec.date_mask = 'YYYYMMDD'
         THEN v_sql3 := concat_ws('',v_sql3,' case WHEN length(trim(split_part(col1,''',v_delim,''',', i,'))) =0
                THEN null
                 ELSE
                 to_date(coalesce((trim(split_part(col1,''',v_delim,''',', i,'))),''99990101''),''YYYYMMDD'')::',rec.data_type,' END as ',rec.col_list,',');
         WHEN UPPER(rec.data_type) = 'TIMESTAMP WITHOUT TIME ZONE' AND rec.date_mask =  'MM/DD/YYYY hh24:mi:ss'
         THEN v_sql3 := concat_ws('',v_sql3,' case WHEN length(trim(split_part(col1,''',v_delim,''',', i,'))) =0
                THEN null
                 ELSE
                 to_date(coalesce((trim(split_part(col1,''',v_delim,''',', i,'))),''01/01/9999 0024:00:00''),''MM/DD/YYYY hh24:mi:ss'')::',rec.data_type,' END as ',rec.col_list,',');
          ELSE
        v_sql3 := concat_ws('',v_sql3,' case WHEN length(trim(split_part(col1,''',v_delim,''',', i,'))) =0
                THEN null
                 ELSE
                  coalesce((trim(split_part(col1,''',v_delim,''',', i,'))),'''')::',rec.data_type,' END as ',rec.col_list,',') ;
       END case;


       i :=i+1;
       end loop;


         -- raise notice 'v_sql 3, %',v_sql3;


       SELECT trim(trailing ' ' FROM v_sql1) INTO v_sql1;
       SELECT trim(trailing ',' FROM v_sql1) INTO v_sql1;


       SELECT trim(trailing ' ' FROM v_sql2) INTO v_sql2;
       SELECT trim(trailing ',' FROM v_sql2) INTO v_sql2;


       SELECT trim(trailing ' ' FROM v_sql3) INTO v_sql3;
       SELECT trim(trailing ',' FROM v_sql3) INTO v_sql3;


       END IF;
      raise notice 'v_delim , %',v_delim;


     EXECUTE concat_ws('','SELECT COUNT(*) FROM ',v_table_name_stg)  INTO v_cnt;


    raise notice 'stg cnt , %',v_cnt;


    /* if upper(v_delim) = 'CSV' then
       v_sql_ins := concat_ws('', ' SELECT * from ' ,v_table_name_stg );
     else
      -- v_sql_ins := concat_ws('',' SELECT ',v_sql1,'  from (select col1 from ' ,v_table_name_stg , ')sub ');
       v_sql_ins := concat_ws('',' SELECT ',v_sql3,'  from (select col1 from ' ,v_table_name_stg , ')sub ');
       END IF;*/


v_chunk := v_cnt/100;




for i in 1..101
loop
     BEGIN
    -- raise notice 'v_sql , %',v_sql;
       -- raise notice 'Chunk number , %',i;
       v_sql_ins := concat_ws('',' SELECT ',v_sql3,'  from (select col1 from ' ,v_table_name_stg , ' offset ',v_chunk*(i-1), ' limit ',v_chunk,') sub ');


     v_sql := concat_ws('','insert into  ', pi_ext_table ,' ', v_sql_ins);
     -- raise notice 'select statement , %',v_sql_ins;
          -- v_sql := null;
     -- EXECUTE concat_ws('','insert into  ', pi_ext_table ,' ', v_sql_ins, 'offset ',v_chunk*(i-1), ' limit ',v_chunk );
     --v_sql := concat_ws('','insert into  ', pi_ext_table ,' ', v_sql_ins );


     -- raise notice 'insert statement , %',v_sql;


    raise NOTICE 'CHUNK START %',v_chunk*(i-1);
   raise NOTICE 'CHUNK END %',v_chunk;


     EXECUTE v_sql;


  EXCEPTION
       WHEN OTHERS THEN
       -- v_sql_ins := concat_ws('',' SELECT ',v_sql1, '  from (select col1 from ' ,v_table_name_stg , ' )sub ');
         -- raise notice 'Chunk number for cursor , %',i;


    raise NOTICE 'Cursor - CHUNK START %',v_chunk*(i-1);
   raise NOTICE 'Cursor -  CHUNK END %',v_chunk;
         v_sql_ins := concat_ws('',' SELECT ',v_sql3, '  from (select col1 from ' ,v_table_name_stg , ' )sub ');


         v_final_sql := REPLACE (v_sql_ins, ''''::text, ''''''::text);
        -- raise notice 'v_final_sql %',v_final_sql;
         v_sql :=concat_ws('','do $a$ declare  r refcursor;v_sql text; i numeric;v_conname text;  v_typ  ',pi_ext_table,'[]; v_rec  ','record',';
           begin






           open r for execute ''select col1 from ',v_table_name_stg ,'  offset ',v_chunk*(i-1), ' limit ',v_chunk,''';
           loop
           begin
           fetch r into v_rec;
           EXIT WHEN NOT FOUND;




           v_sql := concat_ws('''',''insert into  ',pi_ext_table,' SELECT ',REPLACE (v_sql3, ''''::text, ''''''::text) , '  from ( select '''''',v_rec.col1,'''''' as col1) v'');
            execute v_sql;


           exception
            when others then
          v_sql := ''INSERT INTO  ERROR_TABLE VALUES (concat_ws('''''''',''''Error Name: '''',$$''||SQLERRM||''$$,''''Error State: '''',''''''||SQLSTATE||'''''',''''record : '''',$$''||v_rec.col1||''$$),'''''||pi_filename||''''',now())'';


               execute v_sql;
             continue;
           end ;
           end loop;
           close r;
           exception
           when others then
         raise;
           end ; $a$');
      -- raise notice ' inside excp v_sql %',v_sql;
          execute v_sql;
      --  raise notice 'v_sql %',v_sql;
       END;
  END LOOP;
     ELSE


     SELECT distinct DELIMETER,FILE_NAME,DIRECTORY ,concat_ws('',' ',table_name_stg),
       case  header_exist when 'YES' then 'CSV HEADER' else 'CSV' end as header_exist
       INTO STRICT v_delim,v_file_name,v_directory,v_table_name_stg,v_header
     FROM  meta_EXTERNAL_TABLE
     WHERE table_name = pi_ext_table                  ;
     v_sql := concat_ws('','SELECT aws_s3.table_import_FROM_s3(''',
       v_table_name_stg, ''','''', ''DELIMITER AS ''''#'''' ',v_header,' '',','
      aws_commons.create_s3_uri
       ( ''',v_directory, ''',''',
       v_file_name, ''',',
        '''',v_region,''')
      )');
         EXECUTE  v_sql;


     FOR rec in cr1
     LOOP


      IF rec.start_pos IS NULL AND rec.END_pos IS NULL AND rec.no_position = 'recnum'
      THEN
        v_rec_val := 1;
      ELSE


       case
         WHEN upper(rec.data_type) = 'NUMERIC'
         THEN v_sql1 := concat_ws('',' case WHEN length(trim(substring(COL1, ',rec.start_pos ,',', rec.END_pos,'-',rec.start_pos ,'+1))) =0
                THEN null
                 ELSE
                 coalesce((trim(substring(COL1, ',rec.start_pos ,',', rec.END_pos,'-',rec.start_pos ,'+1)))::NUMERIC,0)::',rec.data_type,' END as ',rec.col_list,',') ;
         WHEN UPPER(rec.data_type) = 'TIMESTAMP WITHOUT TIME ZONE' AND rec.date_mask = 'YYYYMMDD'
         THEN v_sql1 := concat_ws('','case WHEN length(trim(substring(COL1, ',rec.start_pos ,',', rec.END_pos,'-',rec.start_pos ,'+1))) =0
                THEN null
                 ELSE
                 to_date(coalesce((trim(substring(COL1, ',rec.start_pos ,',', rec.END_pos,'-',rec.start_pos ,'+1))),''99990101''),''YYYYMMDD'')::',rec.data_type,' END as ',rec.col_list,',');
         WHEN UPPER(rec.data_type) = 'TIMESTAMP WITHOUT TIME ZONE' AND rec.date_mask = 'YYYYMMDDHH24MISS'
         THEN v_sql1 := concat_ws('','case WHEN length(trim(substring(COL1, ',rec.start_pos ,',', rec.END_pos,'-',rec.start_pos ,'+1))) =0
                THEN null
                 ELSE
                 to_date(coalesce((trim(substring(COL1, ',rec.start_pos ,',', rec.END_pos,'-',rec.start_pos ,'+1))),''9999010100240000''),''YYYYMMDDHH24MISS'')::',rec.data_type,' END as ',rec.col_list,',');
          ELSE
        v_sql1 := concat_ws('',' case WHEN length(trim(substring(COL1, ',rec.start_pos ,',', rec.END_pos,'-',rec.start_pos ,'+1))) =0
                THEN null
                 ELSE
                  coalesce((trim(substring(COL1, ',rec.start_pos ,',', rec.END_pos,'-',rec.start_pos ,'+1))),'''')::',rec.data_type,' END as ',rec.col_list,',') ;
       END case;


      END IF;
      v_col_list := concat_ws('',v_col_list ,v_sql1);
     END LOOP;




           SELECT trim(trailing ' ' FROM v_col_list) INTO v_col_list;
           SELECT trim(trailing ',' FROM v_col_list) INTO v_col_list;


           v_sql_col   :=  concat_ws('',trim(trailing ',' FROM v_col_list) , ' FROM  ',v_table_name_stg,' WHERE col1 IS NOT NULL AND length(col1)>0 ');




           v_sql_dynamic := v_sql_col;


           EXECUTE  concat_ws('','SELECT COUNT(*) FROM ',v_table_name_stg) INTO v_cnt;




         IF v_rec_val = 1 THEN
             v_sql_ins := concat_ws('',' select row_number() over(order by ctid) as line_number ,' ,v_sql_dynamic) ;


         ELSE
               v_sql_ins := concat_ws('',' SELECT' ,v_sql_dynamic) ;
           END IF;


     BEGIN
       EXECUTE concat_ws('','insert into  ', pi_ext_table ,' ', v_sql_ins);
           EXCEPTION
              WHEN OTHERS THEN
          IF v_rec_val = 1 THEN
                  v_final_sql := ' select row_number() over(order by ctid) as line_number ,col1 from ';
                ELSE
                 v_final_sql := ' SELECT col1 from';
               END IF;
       v_sql :=concat_ws('','do $a$ declare  r refcursor;v_rec_val numeric := ',coalesce(v_rec_val,0),';line_number numeric; col1 text; v_typ  ',pi_ext_table,'[]; v_rec  ',pi_ext_table,';
             begin
             open r for execute ''',v_final_sql, ' ',v_table_name_stg,' WHERE col1 IS NOT NULL AND length(col1)>0 '' ;
             loop
             begin
             if   v_rec_val = 1 then
             fetch r into line_number,col1;
             else
             fetch r into col1;
             end if;


             EXIT WHEN NOT FOUND;
              if v_rec_val = 1 then
              select line_number,',trim(trailing ',' FROM v_col_list) ,' into v_rec;
              else
                select ',trim(trailing ',' FROM v_col_list) ,' into v_rec;
              end if;


             insert into  ',pi_ext_table,' select v_rec.*;
              exception
              when others then
               INSERT INTO  ERROR_TABLE VALUES (concat_ws('''',''Error Name: '',SQLERRM,''Error State: '',SQLSTATE,''record : '',v_rec),''',pi_filename,''',now());
               continue;
              end ;
               end loop;
             close r;
              exception
              when others then
              raise;
              end ; $a$');
         execute v_sql;


     END;


         END IF;


   EXECUTE concat_ws('','SELECT COUNT(*) FROM  ' ,pi_ext_table)   INTO proc_rec_COUNT;


   EXECUTE concat_ws('','SELECT COUNT(*) FROM  error_table WHERE file_name =''',pi_filename,''' and processed_time::date = clock_timestamp()::date')  INTO error_rec_COUNT;


   EXECUTE concat_ws('','SELECT COUNT(*) FROM ',v_table_name_stg)   INTO tot_rec_COUNT;


   INSERT INTO  log_table values(pi_filename,now(),tot_rec_COUNT,proc_rec_COUNT, error_rec_COUNT);


   raise notice 'v_directory, %',v_directory;


   raise notice 'pi_filename, %',pi_filename;


   raise notice 'v_region, %',v_region;


  perform aws_s3.query_export_to_s3('SELECT replace(trim(substring(error_details,position(''('' in error_details)+1),'')''),'','','';''),file_name,processed_time FROM  error_table WHERE file_name = '''||pi_filename||'''',
   aws_commons.create_s3_uri(v_directory, pi_filename||'.bad', v_region),
   options :='FORmat csv, header, delimiter $$,$$'
   );


raise notice 'v_directory, %',v_directory;


   raise notice 'pi_filename, %',pi_filename;


   raise notice 'v_region, %',v_region;


  perform aws_s3.query_export_to_s3('SELECT * FROM  log_table WHERE file_name = '''||pi_filename||'''',
   aws_commons.create_s3_uri(v_directory, pi_filename||'.log', v_region),
   options :='FORmat csv, header, delimiter $$,$$'
   );




   END IF;
 j := j+1;
 END LOOP;


       RETURN 'OK';
EXCEPTION
    WHEN  OTHERS THEN
  raise notice 'error %',sqlerrm;
   ERCODE=SQLSTATE;
   IF ERCODE = 'NTFIP' THEN
     v_sqlerrm := concat_Ws('',sqlerrm,'No data for the filename');
   ELSIF ERCODE = 'S3IMP' THEN
    v_sqlerrm := concat_Ws('',sqlerrm,'Error While exporting the file from S3');
   ELSE
      v_sqlerrm := sqlerrm;
   END IF;


 select distinct directory into v_directory from  meta_EXTERNAL_TABLE;




 raise notice 'exc v_directory, %',v_directory;


   raise notice 'exc pi_filename, %',pi_filename;


   raise notice 'exc v_region, %',v_region;


  perform aws_s3.query_export_to_s3('SELECT * FROM  error_table WHERE file_name = '''||pi_filename||'''',
   aws_commons.create_s3_uri(v_directory, pi_filename||'.bad', v_region),
   options :='FORmat csv, header, delimiter $$,$$'
   );
    RETURN null;
END;
$function$
```

# Migrieren Sie funktionsbasierte Indizes von Oracle nach PostgreSQL
<a name="migrate-function-based-indexes-from-oracle-to-postgresql"></a>

*Veeranjaneyulu Grandhi und Navakanth Talluri, Amazon Web Services*

## Zusammenfassung
<a name="migrate-function-based-indexes-from-oracle-to-postgresql-summary"></a>

Indizes sind eine gängige Methode zur Verbesserung der Datenbankleistung. Ein Index ermöglicht es dem Datenbankserver, bestimmte Zeilen viel schneller zu finden und abzurufen, als dies ohne einen Index möglich wäre. Indizes erhöhen jedoch auch den Mehraufwand für das Datenbanksystem als Ganzes, weshalb sie sinnvoll verwendet werden sollten. Funktionsbasierte Indizes, die auf einer Funktion oder einem Ausdruck basieren, können mehrere Spalten und mathematische Ausdrücke beinhalten. Ein funktionsbasierter Index verbessert die Leistung von Abfragen, die den Indexausdruck verwenden. 

PostgreSQL unterstützt nativ nicht die Erstellung funktionsbasierter Indizes mit Funktionen, deren Volatilität als stabil definiert ist. Sie können jedoch ähnliche Funktionen mit Volatilität erstellen `IMMUTABLE` und sie bei der Indexerstellung verwenden.

Eine `IMMUTABLE` Funktion kann die Datenbank nicht ändern, und es ist garantiert, dass sie bei denselben Argumenten für immer dieselben Ergebnisse zurückgibt. Diese Kategorie ermöglicht es dem Optimierer, die Funktion vorab auszuwerten, wenn eine Abfrage sie mit konstanten Argumenten aufruft. 

Dieses Muster hilft bei der Migration der funktionsbasierten Oracle-Indizes, wenn sie mit Funktionen wie `to_char``to_date`, und `to_number` zum PostgreSQL-Äquivalent verwendet werden.

## Voraussetzungen und Einschränkungen
<a name="migrate-function-based-indexes-from-oracle-to-postgresql-prereqs"></a>

**Voraussetzungen**
+ Ein aktives Amazon Web Services (AWS) -Konto
+ Eine Oracle-Quelldatenbank-Instance, auf der der Listener-Service eingerichtet ist und läuft
+ Vertrautheit mit PostgreSQL-Datenbanken

**Einschränkungen**
+ Die maximale Datenbankgröße beträgt 64 TB.
+ Die bei der Indexerstellung verwendeten Funktionen müssen UNVERÄNDERLICH sein.

**Produktversionen**
+ Alle Oracle-Datenbankeditionen für die Versionen 11g (Versionen 11.2.0.3.v1 und höher) und bis zu 12.2 und 18c
+ PostgreSQL-Versionen 9.6 und höher

## Architektur
<a name="migrate-function-based-indexes-from-oracle-to-postgresql-architecture"></a>

**Quelltechnologie-Stack**
+ Eine Oracle-Datenbank vor Ort oder auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance oder eine Amazon RDS for Oracle DB-Instance

**Zieltechnologie-Stack**
+ Beliebige PostgreSQL-Engine

## Tools
<a name="migrate-function-based-indexes-from-oracle-to-postgresql-tools"></a>
+ **pgAdmin 4** ist ein Open-Source-Verwaltungstool für Postgres. Das Tool pgAdmin 4 bietet eine grafische Oberfläche zum Erstellen, Verwalten und Verwenden von Datenbankobjekten.
+ **Oracle SQL Developer** ist eine integrierte Entwicklungsumgebung (IDE) für die Entwicklung und Verwaltung von Oracle Database sowohl in herkömmlichen als auch in Cloud-Bereitstellungen.

## Epen
<a name="migrate-function-based-indexes-from-oracle-to-postgresql-epics"></a>

### Erstellen Sie einen funktionsbasierten Index mit einer Standardfunktion
<a name="create-a-function-based-index-using-a-default-function"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie mit der Funktion to\$1char einen funktionsbasierten Index für eine Spalte. | Verwenden Sie den folgenden Code, um den funktionsbasierten Index zu erstellen.<pre>postgres=# create table funcindex( col1 timestamp without time zone);<br />CREATE TABLE<br />postgres=# insert into funcindex values (now());<br />INSERT 0 1<br />postgres=# select * from funcindex;<br />            col1<br />----------------------------<br /> 2022-08-09 16:00:57.77414<br />(1 rows)<br /> <br />postgres=# create index funcindex_idx on funcindex(to_char(col1,'DD-MM-YYYY HH24:MI:SS'));<br />ERROR:  functions in index expression must be marked IMMUTABLE</pre> PostgreSQL erlaubt es nicht, einen funktionsbasierten Index ohne die Klausel zu erstellen. `IMMUTABLE` | DBA, App-Entwickler | 
| Überprüfen Sie die Volatilität der Funktion. | Verwenden Sie den Code im Abschnitt *Zusätzliche Informationen*, um die Volatilität der Funktion zu überprüfen.   | DBA | 

### Erstellen Sie funktionsbasierte Indizes mithilfe einer Wrapper-Funktion
<a name="create-function-based-indexes-using-a-wrapper-function"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Wrapper-Funktion. | Verwenden Sie den Code im Abschnitt *Zusätzliche Informationen*, um eine Wrapper-Funktion zu erstellen. | PostgreSQL-Entwickler | 
| Erstellen Sie einen Index mithilfe der Wrapper-Funktion. | Verwenden Sie den Code im Abschnitt *Zusätzliche Informationen*, um eine benutzerdefinierte Funktion mit dem Schlüsselwort `IMMUTABLE` im selben Schema wie die Anwendung zu erstellen, und verweisen Sie im Skript zur Indexerstellung darauf.Wenn eine benutzerdefinierte Funktion in einem gemeinsamen Schema (aus dem vorherigen Beispiel) erstellt wird, aktualisieren Sie diese wie gezeigt. `search_path`<pre>ALTER ROLE <ROLENAME> set search_path=$user, COMMON;</pre> | DBA, PostgreSQL-Entwickler | 

### Überprüfen Sie die Indexerstellung
<a name="validate-index-creation"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Indexerstellung. | Stellen Sie sicher, dass der Index auf der Grundlage von Abfragezugriffsmustern erstellt werden muss. | DBA | 
| Stellen Sie sicher, dass der Index verwendet werden kann. | Um zu überprüfen, ob der funktionsbasierte Index vom PostgreSQL Optimizer übernommen wird, führen Sie eine SQL-Anweisung mit explain oder explain analyze aus. *Verwenden Sie den Code im Abschnitt Zusätzliche Informationen.* Sammeln Sie nach Möglichkeit auch die Tabellenstatistiken.Wenn Sie den Explain-Plan bemerken, hat der PostgreSQL-Optimierer aufgrund der Prädikatbedingung einen funktionsbasierten Index ausgewählt. | DBA | 

## Zugehörige Ressourcen
<a name="migrate-function-based-indexes-from-oracle-to-postgresql-resources"></a>
+ [Funktionsbasierte Indizes (Oracle-Dokumentation](https://docs.oracle.com/cd/E11882_01/appdev.112/e41502/adfns_indexes.htm#ADFNS00505))
+ [Indizes für Ausdrücke](https://www.postgresql.org/docs/9.4/indexes-expressional.html) (PostgreSQL-Dokumentation)
+ [PostgreSQL-Volatilität](https://www.postgresql.org/docs/current/xfunc-volatility.html) (PostgreSQL-Dokumentation)
+ [PostgreSQL search\$1path](https://www.postgresql.org/docs/current/ddl-schemas.html#DDL-SCHEMAS-PATH) (PostgreSQL-Dokumentation)
+ [Leitfaden für die Migration von Oracle Database 19c zu Amazon Aurora PostgreSQL](https://docs.aws.amazon.com/dms/latest/oracle-to-aurora-postgresql-migration-playbook/chap-oracle-aurora-pg.html) 

## Zusätzliche Informationen
<a name="migrate-function-based-indexes-from-oracle-to-postgresql-additional"></a>

**Erstellen Sie eine Wrapper-Funktion**

```
CREATE OR REPLACE FUNCTION myschema.to_char(var1 timestamp without time zone, var2 varchar) RETURNS varchar AS $BODY$ select to_char(var1, 'YYYYMMDD'); $BODY$ LANGUAGE sql IMMUTABLE;
```

**Erstellen Sie einen Index mithilfe der Wrapper-Funktion**

```
postgres=# create function common.to_char(var1 timestamp without time zone, var2 varchar) RETURNS varchar AS $BODY$ select to_char(var1, 'YYYYMMDD'); $BODY$ LANGUAGE sql IMMUTABLE;
CREATE FUNCTION
postgres=# create index funcindex_idx on funcindex(common.to_char(col1,'DD-MM-YYYY HH24:MI:SS'));
CREATE INDEX
```

**Überprüfen Sie die Volatilität der Funktion**

```
SELECT DISTINCT p.proname as "Name",p.provolatile as "volatility" FROM pg_catalog.pg_proc p
 LEFT JOIN pg_catalog.pg_namespace n ON n.oid = p.pronamespace
 LEFT JOIN pg_catalog.pg_language l ON l.oid = p.prolang
 WHERE n.nspname OPERATOR(pg_catalog.~) '^(pg_catalog)$' COLLATE pg_catalog.default AND p.proname='to_char'GROUP BY p.proname,p.provolatile
ORDER BY 1;
```

**Stellen Sie sicher, dass der Index verwendet werden kann**

```
explain analyze <SQL>
 
 
postgres=# explain select col1 from funcindex where common.to_char(col1,'DD-MM-YYYY HH24:MI:SS') = '09-08-2022 16:00:57';
                                                       QUERY PLAN
------------------------------------------------------------------------------------------------------------------------
 Index Scan using funcindex_idx on funcindex  (cost=0.42..8.44 rows=1 width=8)
   Index Cond: ((common.to_char(col1, 'DD-MM-YYYY HH24:MI:SS'::character varying))::text = '09-08-2022 16:00:57'::text)
(2 rows)
```

# Migrieren Sie native Oracle-Funktionen mithilfe von Erweiterungen zu PostgreSQL
<a name="migrate-oracle-native-functions-to-postgresql-using-extensions"></a>

*Pinesh Signal, Amazon Web Services*

## Zusammenfassung
<a name="migrate-oracle-native-functions-to-postgresql-using-extensions-summary"></a>

Dieses Migrationsmuster bietet step-by-step Anleitungen für die Migration einer Amazon Relational Database Service (Amazon RDS) for Oracle-Datenbank-Instance zu einer Amazon RDS for PostgreSQL- oder Amazon Aurora PostgreSQL-Compatible Edition-Datenbank durch Änderung des systemeigenen integrierten Codes `aws_oracle_ext` und der `orafce` Erweiterungen von PostgreSQL (). `psql` Dies spart Verarbeitungszeit.

Das Muster beschreibt eine manuelle Offline-Migrationsstrategie ohne Ausfallzeiten für eine Oracle-Quelldatenbank mit mehreren Terabyte und einer hohen Anzahl von Transaktionen.

Der Migrationsprozess verwendet das AWS Schema Conversion Tool (AWS SCT) mit den `orafce` Erweiterungen `aws_oracle_ext` und, um ein Amazon RDS for Oracle Oracle-Datenbankschema in ein Amazon RDS for PostgreSQL- oder Aurora PostgreSQL-kompatibles Datenbankschema zu konvertieren. Dann wird der Code manuell in den von PostgreSQL unterstützten systemeigenen `psql` integrierten Code geändert. Dies liegt daran, dass die Erweiterungsaufrufen die Codeverarbeitung auf dem PostgreSQL-Datenbankserver beeinflussen und nicht der gesamte Erweiterungscode vollständig kompatibel oder kompatibel mit PostgreSQL-Code ist.

Dieses Muster konzentriert sich hauptsächlich auf die manuelle Migration von SQL-Codes mithilfe von AWS SCT und den Erweiterungen `aws_oracle_ext` und. `orafce` Sie konvertieren die bereits verwendeten Erweiterungen in native PostgreSQL (`psql`) -Built-ins. Dann entfernen Sie alle Verweise auf die Erweiterungen und konvertieren die Codes entsprechend.

## Voraussetzungen und Einschränkungen
<a name="migrate-oracle-native-functions-to-postgresql-using-extensions-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto 
+ Betriebssystem (Windows oder Mac) oder EC2 Amazon-Instance (läuft) 
+ Orace

**Einschränkungen**

Nicht alle Oracle-Funktionen, die `aws_oracle_ext` unsere `orafce` Erweiterungen verwenden, können in native PostgreSQL-Funktionen konvertiert werden. Möglicherweise muss es manuell überarbeitet werden, um es mit PostgreSQL-Bibliotheken zu kompilieren.

Ein Nachteil der Verwendung von AWS SCT-Erweiterungen ist die langsame Leistung beim Ausführen und Abrufen der Ergebnisse. Die Kosten können anhand des einfachen [PostgreSQL EXPLAIN-Plans](https://www.postgresql.org/docs/current/sql-explain.html) (Ausführungsplan einer Anweisung) für die Migration der `SYSDATE` Oracle-Funktion zur `NOW()` PostgreSQL-Funktion zwischen allen drei Codes (`aws_oracle_ext`, und `psql` Standard) nachvollzogen werden`orafce`, wie im Abschnitt *Leistungsvergleichsprüfung im angehängten Dokument* erläutert.

**Produktversionen**
+ **Quelle:** Amazon RDS for Oracle Oracle-Datenbank 10.2 und höher (für 10.x), 11g (11.2.0.3.v1 und höher) und bis zu 12.2, 18c und 19c (und höher) für Enterprise Edition, Standard Edition, Standard Edition 1 und Standard Edition 2
+ **Ziel**: Amazon RDS for PostgreSQL oder Aurora PostgreSQL-kompatible Datenbank 9.4 und höher (für 9.x), 10.x, 11.x, 12.x, 13.x und 14.x (und höher)
+ **AWS SCT**: Aktuelle Version (dieses Muster wurde mit 1.0.632 getestet)
+ **Oracle**: Aktuelle Version (dieses Muster wurde mit 3.9.0 getestet)

## Architektur
<a name="migrate-oracle-native-functions-to-postgresql-using-extensions-architecture"></a>

**Quelltechnologie-Stack**
+ Eine Amazon RDS for Oracle Oracle-Datenbank-Instance mit Version 12.1.0.2.v18

**Zieltechnologie-Stack**
+ Eine Amazon RDS for PostgreSQL- oder Aurora PostgreSQL-kompatible Datenbank-Instance mit Version 11.5

**Architektur für die Datenbankmigration**

Das folgende Diagramm stellt die Datenbankmigrationsarchitektur zwischen den Oracle-Quelldatenbanken und den PostgreSQL-Zieldatenbanken dar. Die Architektur umfasst AWS Cloud, eine Virtual Private Cloud (VPC), Availability Zones, ein privates Subnetz, eine Amazon RDS for Oracle Oracle-Datenbank, AWS SCT, eine Amazon RDS for PostgreSQL- oder Aurora PostgreSQL-kompatible Datenbank, Erweiterungen für Oracle (`aws_oracle_ext`und`orafce`) und strukturierte Abfragesprache-Dateien (SQL).

![\[Der Prozess wird in der folgenden Liste erklärt.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/158847bb-27ef-4915-a9ca-7d87073792c1/images/234b824a-bfe5-4ef0-9fa7-8401370b92a5.png)


1. Starten Sie die Amazon RDS for Oracle DB-Instance (Quell-DB).

1. Verwenden Sie AWS SCT mit den Erweiterungspaketen `aws_oracle_ext` und `orafce` Erweiterungspaketen, um den Quellcode von Oracle nach PostreSQL zu konvertieren.

1. Die Konvertierung erzeugt PostgreSQL-unterstützte migrierte .sql-Dateien.

1. Konvertieren Sie die nicht konvertierten Oracle-Erweiterungscodes manuell in PostgreSQL () `psql` -Codes.

1. Die manuelle Konvertierung erzeugt konvertierte .sql-Dateien, die PostgreSQL unterstützen.

1. Führen Sie diese .sql-Dateien auf Ihrer Amazon RDS for PostgreSQL PostgreSQL-DB-Instance (Ziel-DB) aus.

## Tools
<a name="migrate-oracle-native-functions-to-postgresql-using-extensions-tools"></a>

**Tools**

*AWS-Services*
+ [AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) — Das AWS Schema Conversion Tool (AWS SCT) konvertiert Ihr vorhandenes Datenbankschema von einer Datenbank-Engine in eine andere. Sie können das relationale OLTP-Schema (Online Transactional Processing) oder das Data Warehouse-Schema konvertieren. Ihr konvertiertes Schema ist für eine Amazon RDS for MySQL MySQL-DB-Instance, einen Amazon Aurora Aurora-DB-Cluster, eine Amazon RDS for PostgreSQL PostgreSQL-DB-Instance oder einen Amazon Redshift Redshift-Cluster geeignet. Das konvertierte Schema kann auch mit einer Datenbank auf einer EC2 Amazon-Instance verwendet oder als Daten in einem Amazon S3-Bucket gespeichert werden.

  AWS SCT bietet eine projektbasierte Benutzeroberfläche, mit der Sie das Datenbankschema Ihrer Quelldatenbank automatisch in ein Format konvertieren können, das mit Ihrer Amazon RDS-Zielinstanz kompatibel ist. 

  Sie können AWS SCT verwenden, um eine Migration von einer Oracle-Quelldatenbank zu einem der oben aufgeführten Ziele durchzuführen. Mit AWS SCT können Sie die Objektdefinitionen der Quelldatenbank wie Schema, Ansichten, gespeicherte Prozeduren und Funktionen exportieren. 

  Sie können AWS SCT verwenden, um Daten von Oracle in Amazon RDS for PostgreSQL oder Amazon Aurora PostgreSQL-Compatible Edition zu konvertieren. 

  In diesem Muster verwenden Sie AWS SCT, um Oracle-Code mithilfe der Erweiterungen und in PostgreSQL zu konvertieren und zu migrieren `aws_oracle_ext` und `orafce` die Erweiterungscodes manuell in `psql` Standard- oder systemeigenen integrierten Code zu migrieren.
+ Das [AWS SCT-Erweiterungspaket](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_ExtensionPack.html) ist ein Zusatzmodul, das in der Quelldatenbank vorhandene Funktionen emuliert, die für die Konvertierung von Objekten in die Zieldatenbank erforderlich sind. Bevor Sie das AWS SCT-Erweiterungspaket installieren können, müssen Sie Ihr Datenbankschema konvertieren.

  Wenn Sie Ihr Datenbank- oder Data Warehouse-Schema konvertieren, fügt AWS SCT Ihrer Zieldatenbank ein zusätzliches Schema hinzu. Über dieses Schema werden SQL-Systemfunktionen der Quelldatenbank implementiert, die zum Schreiben des konvertierten Schemas in die Zieldatenbank benötigt werden. Dieses Zusätzliche Schema wird als Erweiterungspaketschema bezeichnet.

  Das Erweiterungspaket-Schema für OLTP-Datenbanken ist entsprechend der Quelldatenbank benannt. Für Oracle-Datenbanken lautet `AWS_ORACLE_EXT` das Erweiterungspaket-Schema.

*Andere Tools*
+ [Oracle — Oracle](https://github.com/orafce/orafce) ist ein Modul, das Oracle-kompatible Funktionen, Datentypen und Pakete implementiert. Es ist ein Open-Source-Tool mit einer Berkeley Source Distribution (BSD) -Lizenz, sodass jeder es verwenden kann. Das `orafce` Modul ist nützlich für die Migration von Oracle zu PostgreSQL, da viele Oracle-Funktionen in PostgreSQL implementiert sind.

 

**Code**

Eine Liste aller häufig verwendeten und migrierten Codes von Oracle nach PostgreSQL, um die Verwendung von AWS SCT-Erweiterungscodes zu vermeiden, finden Sie im angehängten Dokument.

## Epen
<a name="migrate-oracle-native-functions-to-postgresql-using-extensions-epics"></a>

### Konfiguration der Amazon RDS for Oracle Oracle-Quelldatenbank
<a name="configure-the-amazon-rds-for-oracle-source-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Oracle-Datenbankinstanz. | Erstellen Sie eine Amazon RDS for Oracle- oder Aurora PostgreSQL-kompatible Datenbank-Instance von der Amazon RDS-Konsole aus. | Allgemein AWS, DBA | 
| Konfigurieren Sie die Sicherheitsgruppen. | Konfigurieren Sie Sicherheitsgruppen für eingehenden und ausgehenden Datenverkehr. | Allgemeines AWS | 
| Erstellen Sie die Datenbank. | Erstellen Sie die Oracle-Datenbank mit den benötigten Benutzern und Schemas. | Allgemein AWS, DBA | 
| Erstellen Sie die Objekte. | Objekte erstellen und Daten in das Schema einfügen. | DBA | 

### Konfiguration der Amazon RDS for PostgreSQL PostgreSQL-Zieldatenbank
<a name="configure-the-amazon-rds-for-postgresql-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die PostgreSQL-Datenbankinstanz. | Erstellen Sie eine Amazon RDS for PostgreSQL- oder Amazon Aurora PostgreSQL-Datenbank-Instance von der Amazon RDS-Konsole aus. | Allgemein AWS, DBA | 
| Konfigurieren Sie die Sicherheitsgruppen. | Konfigurieren Sie Sicherheitsgruppen für eingehenden und ausgehenden Datenverkehr. | Allgemeines AWS | 
| Erstellen Sie die Datenbank. | Erstellen Sie die PostgreSQL-Datenbank mit den benötigten Benutzern und Schemas. | Allgemein AWS, DBA | 
| Validieren Sie die Erweiterungen. | Stellen Sie sicher, dass `aws_oracle_ext` und korrekt in der PostgreSQL-Datenbank installiert und konfiguriert `orafce` sind. | DBA | 
| Stellen Sie sicher, dass die PostgreSQL-Datenbank verfügbar ist. | Stellen Sie sicher, dass die PostgreSQL-Datenbank betriebsbereit ist. | DBA | 

### Migrieren Sie das Oracle-Schema mithilfe von AWS SCT und den Erweiterungen nach PostgreSQL
<a name="migrate-the-oracle-schema-into-postgresql-using-aws-sct-and-the-extensions"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie AWS SCT. | Installieren Sie die neueste Version von AWS SCT. | DBA | 
| Konfigurieren Sie AWS SCT. | Konfigurieren Sie AWS SCT mit Java Database Connectivity (JDBC) -Treibern für Oracle () und `ojdbc8.jar` PostgreSQL (). `postgresql-42.2.5.jar` | DBA | 
| Aktivieren Sie das AWS SCT-Erweiterungspaket oder die Vorlage. | Aktivieren Sie unter AWS SCT **Project Settings** die Implementierung integrierter Funktionen mit den `orafce` Erweiterungen `aws_oracle_ext` und für das Oracle-Datenbankschema. | DBA | 
| Konvertiert das Schema. | Wählen Sie in AWS SCT „**Schema konvertieren“**, um das Schema von Oracle nach PostgreSQL zu konvertieren und die SQL-Dateien zu generieren. | DBA | 

### AWS SCT-Erweiterungscode in PSQL-Code konvertieren
<a name="convert-aws-sct-extension-code-to-psql-code"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Den Code manuell konvertieren. | Konvertieren Sie jede Codezeile, die von Erweiterungen unterstützt wird, manuell in den integrierten `psql` Standardcode, wie im angehängten Dokument beschrieben. Zum Beispiel ändern `AWS_ORACLE_EXT.SYSDATE()` oder `ORACLE.SYSDATE()` zu. `NOW()` | DBA | 
| Bestätigen Sie den Code | (Optional) Überprüfen Sie jede Codezeile, indem Sie sie vorübergehend in der PostgreSQL-Datenbank ausführen. | DBA | 
| Erstellen Sie Objekte in der PostgreSQL-Datenbank. | Um Objekte in der PostgreSQL-Datenbank zu erstellen, führen Sie die .sql-Dateien aus, die von AWS SCT generiert und in den beiden vorherigen Schritten geändert wurden. | DBA | 

## Zugehörige Ressourcen
<a name="migrate-oracle-native-functions-to-postgresql-using-extensions-resources"></a>
+ Datenbank
  + [Oracle auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html)
  + [PostgreSQL auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html)
  + [Arbeiten mit Amazon Aurora PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html)
  + [PostgreSQL EXPLAIN-Plan](https://www.postgresql.org/docs/current/sql-explain.html)
+ AWS SCT
  + [Überblick über das AWS-Schema-Konvertierungstool](https://aws.amazon.com/dms/schema-conversion-tool/)
  + [AWS SCT-Benutzerhandbuch](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
  + [Verwenden der AWS SCT-Benutzeroberfläche](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html)
  + [Verwendung von Oracle Database als Quelle für AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.html)
+ Erweiterungen für AWS SCT
  + [Verwenden des AWS SCT-Erweiterungspakets](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_ExtensionPack.html)
  + [Oracle-Funktionalität (de)](https://postgres.cz/wiki/Oracle_functionality_(en))
  + [PGNX Oracle](https://pgxn.org/dist/orafce/)
  + [GitHub orafce](https://github.com/orafce/orafce)

## Zusätzliche Informationen
<a name="migrate-oracle-native-functions-to-postgresql-using-extensions-additional"></a>

Weitere Informationen finden Sie in den ausführlichen Befehlen mit Syntax und Beispielen für die manuelle Konvertierung von Code im angehängten Dokument.

## Anlagen
<a name="attachments-158847bb-27ef-4915-a9ca-7d87073792c1"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/158847bb-27ef-4915-a9ca-7d87073792c1/attachments/attachment.zip)

# Migrieren Sie mithilfe von AWS DMS eine Db2-Datenbank von Amazon EC2 zu Aurora MySQL-kompatibel
<a name="migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms"></a>

*Pinesh Signal, Amazon Web Services*

## Zusammenfassung
<a name="migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms-summary"></a>

Nachdem Sie Ihre [IBM Db2 for LUW-Datenbank](https://www.ibm.com/docs/en/db2/11.5?topic=federation) zu [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/) migriert haben, sollten Sie erwägen, die Datenbank neu zu strukturieren, indem Sie zu einer Cloud-nativen Amazon Web Services (AWS) -Datenbank wechseln. Dieses Muster behandelt die Migration einer IBM [Db2](https://www.ibm.com/docs/en/db2/11.5) for LUW-Datenbank, die auf einer [ EC2 Amazon-Instance ausgeführt wird, zu einer Amazon](https://docs.aws.amazon.com/ec2/) [Aurora MySQL-Compatible](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraMySQL.html) Edition-Datenbank auf AWS.  

Das Muster beschreibt eine Online-Migrationsstrategie mit minimalen Ausfallzeiten für eine Db2-Quelldatenbank mit mehreren Terabyte und einer hohen Anzahl von Transaktionen. 

Dieses Muster verwendet das [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html), um das Db2-Datenbankschema in ein Aurora MySQL-kompatibles Schema zu konvertieren. Anschließend verwendet das Muster den [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html), um Daten von der Db2-Datenbank in die Aurora MySQL-kompatible Datenbank zu migrieren. Für den Code, der nicht von AWS SCT konvertiert wurde, sind manuelle Konvertierungen erforderlich.

## Voraussetzungen und Einschränkungen
<a name="migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto mit einer Virtual Private Cloud (VPC)
+ AWS SCT
+ AWS DMS

**Produktversionen**
+ Aktuelle Version von AWS SCT
+ Db2 für Linux Version 11.1.4.4 und höher

## Architektur
<a name="migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ DB2/Linux x86-64 Bit ist auf einer Instanz gemountet EC2  

**Zieltechnologie-Stack**
+ Eine Amazon Aurora MySQL-kompatible Edition-Datenbank-Instance

**Quell- und Zielarchitektur**

Das folgende Diagramm zeigt die Datenmigrationsarchitektur zwischen der Db2-Quelle und den Aurora MySQL-kompatiblen Zieldatenbanken. Die Architektur in der AWS-Cloud umfasst eine Virtual Private Cloud (VPC) (Virtual Private Cloud), eine Availability Zone, ein öffentliches Subnetz für die Db2-Instance und die AWS DMS-Replikationsinstanz sowie ein privates Subnetz für die Aurora MySQL-kompatible Datenbank.

![\[Architektur der Datenmigration zwischen Quell-Db2 und Aurora MySQL-kompatiblen Zieldatenbanken.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/5abfccc4-148c-4794-8d80-e3c122679125/images/f30664f8-2d6a-4448-8d5c-cff3988a52c7.png)


## Tools
<a name="migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms-tools"></a>

**AWS-Services**
+ [Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_AuroraOverview.html) ist eine vollständig verwaltete relationale Datenbank-Engine, die für die Cloud entwickelt wurde und mit MySQL und PostgreSQL kompatibel ist.
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/) bietet skalierbare Rechenkapazität in der AWS-Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.
+ Das [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist. AWS SCT unterstützt als Quelle IBM Db2 für LUW-Versionen 9.1, 9.5, 9.7, 10.1, 10.5, 11.1 und 11.5.

## Best Practices
<a name="migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms-best-practices"></a>

Bewährte Methoden finden Sie unter [Bewährte Methoden für AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_BestPractices.html).

## Epen
<a name="migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms-epics"></a>

### Konfigurieren Sie die IBM Db2-Quelldatenbank
<a name="configure-the-source-ibm-db2-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die IBM Db2-Datenbank auf Amazon EC2. | Sie können eine IBM Db2-Datenbank auf einer EC2 Instance erstellen, indem Sie ein Amazon Machine Image (AMI) von AWS Marketplace verwenden oder indem Sie Db2-Software auf einer EC2 Instance installieren.Starten Sie eine EC2 Instance, indem Sie ein AMI für IBM Db2 auswählen (z. B. [IBM Db2 v11.5.7 RHEL 7.9](https://aws.amazon.com/marketplace/pp/prodview-aclrjj4hq2ols?sr=0-1&ref_=beagle&applicationId=AWS-EC2-Console)), das einer lokalen Datenbank ähnelt. | DBA, Allgemeines AWS | 
| Konfigurieren Sie Sicherheitsgruppen. | Konfigurieren Sie die eingehenden VPC-Sicherheitsgruppenregeln für SSH (Secure Shell) und TCP mit Port 22 bzw. 50000. | Allgemeines AWS | 
| Erstellen Sie die Datenbank-Instance. | Erstellen Sie eine neue Instanz (Benutzer) und Datenbank (Schema), oder verwenden Sie die `db2inst1` Standardinstanz und Beispieldatenbank.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.html) | DBA | 
| Vergewissern Sie sich, dass die Db2-DB-Instance verfügbar ist. | Verwenden Sie den Befehl, um zu bestätigen, dass die Db2-Datenbank-Instance betriebsbereit ist. `Db2pd -` | DBA | 

### Konfigurieren Sie die Aurora MySQL-kompatible Zieldatenbank
<a name="configure-the-target-aurora-mysql-compatible-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Aurora MySQL-kompatible Datenbank. | Erstellen Sie eine Amazon Aurora Aurora-Datenbank mit MySQL-Kompatibilität aus dem AWS RDS-Service[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.html) | DBA, Allgemeines AWS | 
| Konfigurieren Sie Sicherheitsgruppen. | Konfigurieren Sie die eingehenden Regeln der VPC-Sicherheitsgruppe für SSH- und TCP-Verbindungen. | Allgemeines AWS | 
| Vergewissern Sie sich, dass die Aurora-Datenbank verfügbar ist. | Gehen Sie wie folgt vor, um sicherzustellen, dass die Aurora MySQL-kompatible Datenbank betriebsbereit ist:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.html) | DBA | 

### AWS SCT konfigurieren und ausführen
<a name="configure-and-run-aws-sct"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie AWS SCT. | Laden Sie die neueste Version von [AWS SCT herunter und installieren Sie sie](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Installing.html) (die aktuelle Version 1.0.628). | Allgemeines AWS | 
| Konfigurieren Sie AWS SCT. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.html) | Allgemeines AWS | 
| Erstellen Sie ein AWS SCT-Projekt. | Erstellen Sie ein AWS SCT-Projekt und einen Bericht, der Db2 for LUW als Quell-DB-Engine und Aurora MySQL-kompatibel für die Ziel-DB-Engine verwendet.Informationen zu den Rechten, die für die Verbindung mit einer Db2 for LUW-Datenbank erforderlich sind, finden Sie unter [Verwenden von Db2 LUW als Quelle](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.DB2LUW.html) für AWS SCT. | Allgemeines AWS | 
| Validieren Sie die Objekte. | Wählen Sie **Schema laden** und validieren Sie die Objekte. Aktualisieren Sie alle falschen Objekte in der Zieldatenbank:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.html) | DBA, Allgemeines AWS | 

### AWS DMS konfigurieren und ausführen
<a name="configure-and-run-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Replikationsinstanz. | Melden Sie sich bei der AWS-Managementkonsole an, navigieren Sie zum AWS DMS-Service und erstellen Sie eine Replikationsinstanz mit gültigen Einstellungen für die VPC-Sicherheitsgruppe, die Sie für die Quell- und Zieldatenbank konfiguriert haben. | Allgemeines AWS | 
| Endpunkte erstellen. | Erstellen Sie den Quellendpunkt für die Db2-Datenbank und den Zielendpunkt für die Aurora MySQL-kompatible Datenbank:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.html) | Allgemeines AWS | 
| Erstellen Sie Migrationsaufgaben. | Erstellen Sie eine einzelne Migrationsaufgabe oder mehrere Migrationsaufgaben für Volllast und CDC- oder Datenvalidierung:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.html) | Allgemeines AWS | 
| Planen Sie den Produktionslauf. | Bestätigen Sie Ausfallzeiten mit Stakeholdern wie Anwendungseigentümern, um AWS DMS in Produktionssystemen auszuführen. | Leiter der Migration | 
| Führen Sie die Migrationsaufgaben aus. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.html) | Allgemeines AWS | 
| Validieren Sie die Daten. | Überprüfen Sie die Ergebnisse und Daten der Migrationsaufgaben in den DB2-Quelldatenbanken und den MySQL-Zieldatenbanken:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.html) | DBA | 
| Stoppen Sie die Migrationsaufgaben. | Nachdem die Datenvalidierung erfolgreich abgeschlossen wurde, beenden Sie die Validierungsmigrationsaufgaben. | Allgemeines AWS | 

## Fehlerbehebung
<a name="migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Die Quell- und Zieltestverbindungen von AWS SCT schlagen fehl. | Konfigurieren Sie JDBC-Treiberversionen und eingehende VPC-Sicherheitsgruppenregeln, um den eingehenden Datenverkehr zu akzeptieren. | 
| Der Testlauf für den Db2-Quellendpunkt schlägt fehl. | Konfigurieren Sie die zusätzliche Verbindungseinstellung`CurrentLSN=<scan>;`. | 
| Die AWSDMS Aufgabe kann keine Verbindung zur Db2-Quelle herstellen, und der folgende Fehler wird zurückgegeben.`database is recoverable if either or both of the database configuration parameters LOGARCHMETH1 and LOGARCHMETH2 are set to ON` | Führen Sie die folgenden Befehle aus, um den Fehler zu vermeiden:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.html) | 

## Zugehörige Ressourcen
<a name="migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms-resources"></a>

**Amazon EC2**
+ [Amazon EC2](https://aws.amazon.com/ec2/)
+ [ EC2 Amazon-Benutzerhandbücher](https://docs.aws.amazon.com/ec2/)

**Datenbanken**
+ [IBM Db2-Datenbank](https://www.ibm.com/products/db2-database)
+ [Amazon Aurora](https://aws.amazon.com/rds/aurora/)
+ [Arbeiten mit Amazon Aurora MySQL](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraMySQL.html)

**AWS SCT**
+ [AWS-DMS-Schemakonvertierung](https://aws.amazon.com/dms/schema-conversion-tool/)
+ [Benutzerhandbuch für das AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ [Verwenden der AWS SCT-Benutzeroberfläche](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html)
+ [IBM Db2 LUW als Quelle für AWS SCT verwenden](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.DB2LUW.html)

**AWS DMS**
+ [AWS Database Migration Service](https://aws.amazon.com/dms/)
+ [AWS Database Migration Service — Benutzerhandbuch](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
+ [Quellen für die Datenmigration](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.html)
+ [Ziele für die Datenmigration](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.html)
+ [AWS Database Migration Service und AWS Schema Conversion Tool unterstützen jetzt IBM Db2 LUW als Quelle](https://aws.amazon.com/blogs/database/aws-database-migration-service-and-aws-schema-conversion-tool-now-support-ibm-db2-as-a-source/) (Blogbeitrag)
+ [Migrieren von Anwendungen, auf denen relationale Datenbanken ausgeführt werden, zu AWS](https://d1.awsstatic.com/whitepapers/Migration/migrating-applications-to-aws.pdf)

# Migrieren Sie mithilfe von AWS DMS eine Microsoft SQL Server-Datenbank von Amazon EC2 zu Amazon DocumentDB
<a name="migrate-a-microsoft-sql-server-database-from-amazon-ec2-to-amazon-documentdb-by-using-aws-dms"></a>

*Umamaheswara Nooka, Amazon Web Services*

## Zusammenfassung
<a name="migrate-a-microsoft-sql-server-database-from-amazon-ec2-to-amazon-documentdb-by-using-aws-dms-summary"></a>

Dieses Muster beschreibt, wie AWS Database Migration Service (AWS DMS) verwendet wird, um eine Microsoft SQL Server-Datenbank, die auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance gehostet wird, zu einer Amazon DocumentDB DocumentDB-Datenbank (mit MongoDB-Kompatibilität) zu migrieren.

Die AWS DMS-Replikationsaufgabe liest die Tabellenstruktur der SQL Server-Datenbank, erstellt die entsprechende Sammlung in Amazon DocumentDB und führt eine Volllastmigration durch.

Sie können dieses Muster auch verwenden, um eine lokale SQL Server- oder Amazon Relational Database Service (Amazon RDS) für SQL Server-DB-Instance zu Amazon DocumentDB zu migrieren. Weitere Informationen finden Sie im Leitfaden [Migration von Microsoft SQL Server-Datenbanken zur AWS-Cloud auf der AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-sql-server/welcome.html) Prescriptive Guidance-Website.

## Voraussetzungen und Einschränkungen
<a name="migrate-a-microsoft-sql-server-database-from-amazon-ec2-to-amazon-documentdb-by-using-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto.
+ Eine bestehende SQL Server-Datenbank auf einer Instance. EC2 
+ Feste Datenbankrolle (**db\$1owner**), die AWS DMS in der SQL Server-Datenbank zugewiesen wurde. Weitere Informationen finden Sie unter [Rollen auf Datenbankebene](https://docs.microsoft.com/en-us/sql/relational-databases/security/authentication-access/database-level-roles?view=sql-server-ver15) in der SQL Server-Dokumentation. 
+ Vertrautheit mit der Verwendung der `mongoimport` Dienstprogramme `mongodump` `mongorestore``mongoexport`,, und zum [Verschieben von Daten in und aus einem Amazon DocumentDB-Cluster](https://docs.aws.amazon.com/documentdb/latest/developerguide/backup_restore-dump_restore_import_export_data.html).
+ [Microsoft SQL Server Management Studio](https://docs.microsoft.com/en-us/sql/ssms/download-sql-server-management-studio-ssms?view=sql-server-ver15), installiert und konfiguriert.

**Einschränkungen**
+ Die Clustergrößenbeschränkung in Amazon DocumentDB beträgt 64 TB. Weitere Informationen finden Sie unter [Cluster-Grenzwerte](https://docs.aws.amazon.com/documentdb/latest/developerguide/limits.html#limits-cluster) in der Amazon DocumentDB DocumentDB-Dokumentation. 
+ AWS DMS unterstützt nicht die Zusammenführung mehrerer Quelltabellen zu einer einzigen Amazon DocumentDB-Sammlung.
+ Wenn AWS DMS Änderungen aus einer Quelltabelle ohne Primärschlüssel verarbeitet, ignoriert es große Objektspalten (LOB) in der Quelltabelle.

## Architektur
<a name="migrate-a-microsoft-sql-server-database-from-amazon-ec2-to-amazon-documentdb-by-using-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ Amazon EC2

**Zieltechnologie-Stack**
+ Amazon DocumentDB

**Zielarchitektur**

![\[AWS Cloud architecture showing VPC with private DB subnet and components for SQL Server and DocumentDB.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/f186220b-5a94-48b2-840d-f04aedf51651/images/00962b85-8b71-49df-b84a-3adcbc9ad3a3.png)


## Tools
<a name="migrate-a-microsoft-sql-server-database-from-amazon-ec2-to-amazon-documentdb-by-using-aws-dms-tools"></a>
+ [AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html) — Mit dem AWS Database Migration Service (AWS DMS) können Sie Datenbanken einfach und sicher migrieren.
+ [Amazon DocumentDB](https://docs.aws.amazon.com/documentdb/latest/developerguide/get-started-guide.html) — Amazon DocumentDB (mit MongoDB-Kompatibilität) ist ein schneller, zuverlässiger und vollständig verwalteter Datenbankservice.
+ [Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EC2_GetStarted.html) — Amazon Elastic Compute Cloud (Amazon EC2) bietet skalierbare Rechenkapazität in der AWS-Cloud.
+ [Microsoft SQL Server](https://docs.microsoft.com/en-us/sql/sql-server/?view=sql-server-ver15) — SQL Server ist ein relationales Datenbankverwaltungssystem.
+ [SQL Server Management Studio (SSMS) — SSMS](https://docs.microsoft.com/en-us/sql/ssms/sql-server-management-studio-ssms?view=sql-server-ver15) ist ein Tool zur Verwaltung von SQL Server, einschließlich des Zugriffs auf, der Konfiguration und Verwaltung von SQL Server-Komponenten.

## Epen
<a name="migrate-a-microsoft-sql-server-database-from-amazon-ec2-to-amazon-documentdb-by-using-aws-dms-epics"></a>

### Erstellen und Konfigurieren einer VPC
<a name="create-and-configure-a-vpc"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine VPC. | Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die Amazon VPC-Konsole. Erstellen Sie eine Virtual Private Cloud (VPC) mit einem IPv4 CIDR-Blockbereich. | Systemadministrator | 
| Erstellen Sie Sicherheitsgruppen und ein Netzwerk. ACLs | Erstellen Sie auf der Amazon VPC-Konsole gemäß Ihren Anforderungen Sicherheitsgruppen und Netzwerkzugriffskontrolllisten (Netzwerk ACLs) für Ihre VPC. Sie können auch die Standardeinstellungen für diese Konfigurationen verwenden. Weitere Informationen zu dieser und anderen Geschichten finden Sie im Abschnitt „Verwandte Ressourcen“. | Systemadministrator | 

### Erstellen und konfigurieren Sie den Amazon DocumentDB-Cluster
<a name="create-and-configure-the-amazon-documentdb-cluster"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
|  Erstellen Sie einen Amazon DocumentDB-Cluster. | Öffnen Sie die Amazon DocumentDB DocumentDB-Konsole und wählen Sie „Clusters“. Wählen Sie „Erstellen“ und erstellen Sie einen Amazon DocumentDB-Cluster mit einer Instance. Wichtig: Stellen Sie sicher, dass Sie diesen Cluster mit den Sicherheitsgruppen Ihrer VPC konfigurieren. | Systemadministrator  | 
|  Installieren Sie die Mongo-Shell. | Die mongo-Shell ist ein Befehlszeilenprogramm, mit dem Sie eine Verbindung zu Ihrem Amazon DocumentDB-Cluster herstellen und ihn abfragen können. Um sie zu installieren, führen Sie den Befehl „/etc/yum.repos.d/mongodb-org-3.6.repo“ aus, um die Repository-Datei zu erstellen. Führen Sie den Befehl „sudo yum install -y“ aus, um die mongodb-org-shell Mongo-Shell zu installieren. Um Daten während der Übertragung zu verschlüsseln, laden Sie den öffentlichen Schlüssel für Amazon DocumentDB herunter und stellen Sie dann eine Verbindung zu Ihrer Amazon DocumentDB DocumentDB-Instance her. Weitere Informationen zu diesen Schritten finden Sie im Abschnitt „Verwandte Ressourcen“. | Systemadministrator  | 
| Erstellen Sie eine Datenbank im Amazon DocumentDB-Cluster.  | Führen Sie den Befehl „use“ mit dem Namen Ihrer Datenbank aus, um eine Datenbank in Ihrem Amazon DocumentDB-Cluster zu erstellen. | Systemadministrator  | 

### Erstellen und konfigurieren Sie die AWS DMS-Replikationsinstanz
<a name="create-and-configure-the-aws-dms-replication-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die AWS DMS-Replikationsinstanz. | Öffnen Sie die AWS DMS-Konsole und wählen Sie „Replikationsinstanz erstellen“. Geben Sie einen Namen und eine Beschreibung für Ihre Replikationsaufgabe ein. Wählen Sie die Instance-Klasse, die Engine-Version, den Speicher, die VPC und die Multi-AZ aus und machen Sie sie öffentlich zugänglich. Wählen Sie den Tab „Erweitert“, um die Netzwerk- und Verschlüsselungseinstellungen festzulegen. Geben Sie die Wartungseinstellungen an und wählen Sie dann „Replikationsinstanz erstellen“. | Systemadministrator  | 
| Konfigurieren Sie die SQL Server-Datenbank.  | Melden Sie sich bei Microsoft SQL Server an und fügen Sie eine eingehende Regel für die Kommunikation zwischen dem Quellendpunkt und der AWS DMS-Replikationsinstanz hinzu. Verwenden Sie die private IP-Adresse der Replikationsinstanz als Quelle. Wichtig: Die Replikationsinstanz und der Zielendpunkt sollten sich auf derselben VPC befinden. Verwenden Sie eine alternative Quelle in der Sicherheitsgruppe, wenn die Quell- und Replikationsinstanzen unterschiedlich VPCs sind. | Systemadministrator  | 

### Quell- und Zielendpunkte in AWS DMS erstellen und testen
<a name="create-and-test-the-source-and-target-endpoints-in-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Quell- und Zieldatenbank-Endpunkte. | Öffnen Sie die AWS DMS-Konsole und wählen Sie „Quell- und Zieldatenbank-Endpunkte Connect“. Geben Sie die Verbindungsinformationen für die Quell- und Zieldatenbanken an. Wählen Sie bei Bedarf die Registerkarte „Erweitert“, um Werte für „Zusätzliche Verbindungsattribute“ festzulegen. Laden Sie das Zertifikatspaket herunter und verwenden Sie es in Ihrer Endpunktkonfiguration. | Systemadministrator  | 
| Testen Sie die Endpunktverbindung.  | Wählen Sie „Test ausführen“, um die Verbindung zu testen. Beheben Sie alle Fehlermeldungen, indem Sie die Sicherheitsgruppeneinstellungen und die Verbindungen zur AWS DMS-Replikationsinstanz sowohl von der Quell- als auch von der Zieldatenbank-Instance aus überprüfen. | Systemadministrator  | 

### Daten migrieren
<a name="migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die AWS DMS-Migrationsaufgabe.  | Wählen Sie in der AWS DMS-Konsole „Aufgaben“, „Aufgabe erstellen“. Geben Sie die Aufgabenoptionen an, einschließlich der Namen der Quell- und Zielendpunkte sowie der Namen der Replikationsinstanzen. Wählen Sie unter „Migrationstyp“ die Optionen „Bestehende Daten migrieren“ und „Nur Datenänderungen replizieren“ aus. Wählen Sie „Aufgabe starten“. | Systemadministrator  | 
| Führen Sie die AWS DMS-Migrationsaufgabe aus. | Geben Sie unter „Aufgabeneinstellungen“ die Einstellungen für den Tabellenvorbereitungsmodus an, z. B. „Nichts tun“, „Tabellen auf Ziel löschen“, „Kürzen“ und „LOB-Spalten in die Replikation einbeziehen“. Legen Sie eine maximale LOB-Größe fest, die AWS DMS akzeptiert, und wählen Sie „Protokollierung aktivieren“. Behalten Sie für die „Erweiterten Einstellungen“ die Standardwerte bei und wählen Sie „Aufgabe erstellen“. | Systemadministrator  | 
| Überwachen Sie die Migration. | Wählen Sie in der AWS DMS-Konsole „Aufgaben“ und wählen Sie Ihre Migrationsaufgabe aus. Wählen Sie „Aufgabenüberwachung“, um Ihre Aufgabe zu überwachen. Die Aufgabe wird beendet, wenn die Volllastmigration abgeschlossen ist und die zwischengespeicherten Änderungen übernommen wurden. | Systemadministrator  | 

### Testen und verifizieren Sie die Migration
<a name="test-and-verify-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
|  Stellen Sie mithilfe der Mongo-Shell eine Connect zum Amazon DocumentDB-Cluster her. | Öffnen Sie die Amazon DocumentDB DocumentDB-Konsole und wählen Sie Ihren Cluster unter „Clusters“ aus. Wählen Sie auf der Registerkarte „Konnektivität und Sicherheit“ die Option „Mit der Mongo-Shell mit diesem Cluster Connect“. | Systemadministrator  | 
| Überprüfen Sie die Ergebnisse Ihrer Migration. | Führen Sie den Befehl „use“ mit dem Namen Ihrer Datenbank und anschließend den Befehl „show collections“ aus. Führen Sie den Befehl „db. .count ();“ mit dem Namen Ihrer Datenbank aus. Wenn die Ergebnisse mit Ihrer Quelldatenbank übereinstimmen, war Ihre Migration erfolgreich. | Systemadministrator  | 

## Zugehörige Ressourcen
<a name="migrate-a-microsoft-sql-server-database-from-amazon-ec2-to-amazon-documentdb-by-using-aws-dms-resources"></a>

**Eine VPC erstellen und konfigurieren**
+ [Erstellen Sie eine Sicherheitsgruppe für Ihre VPC](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html#CreatingSecurityGroups)
+ [Erstellen Sie eine Netzwerk-ACL](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html)

** **

**Erstellen und konfigurieren Sie den Amazon DocumentDB-Cluster**
+ [Erstellen Sie einen Amazon DocumentDB-Cluster](https://docs.aws.amazon.com/documentdb/latest/developerguide/get-started-guide.html#cloud9-cluster)
+ [Installieren Sie die Mongo-Shell für Amazon DocumentDB](https://docs.aws.amazon.com/documentdb/latest/developerguide/get-started-guide.html#cloud9-mongoshell)
+ [Connect zu Ihrem Amazon DocumentDB-Cluster her](https://docs.aws.amazon.com/documentdb/latest/developerguide/get-started-guide.html#cloud9-connectcluster)

** **

**Erstellen und konfigurieren Sie die AWS DMS-Replikationsinstanz**
+ [Verwenden Sie öffentliche und private Replikationsinstanzen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_ReplicationInstance.html#CHAP_ReplicationInstance.PublicPrivate)

** **

**Quell- und Zielendpunkte in AWS DMS erstellen und testen**
+ [Verwenden Sie Amazon DocumentDB als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/target.docdb.html)
+ [Verwenden Sie eine SQL Server-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SQLServer.html)
+ [Verwenden Sie AWS DMS-Endpunkte](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Endpoints.html)

** **

**Daten migrieren**
+ [Zu Amazon DocumentDB migrieren](https://docs.aws.amazon.com/documentdb/latest/developerguide/docdb-migration.html)

** **

**Sonstige Ressourcen**
+ [Einschränkungen bei der Verwendung von SQL Server als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SQLServer.html#CHAP_Source.SQLServer.Limitations) 
+ [So verwenden Sie Amazon DocumentDB, um skalierbare Anwendungen zu erstellen und zu verwalten](https://aws.amazon.com/blogs/database/how-to-use-amazon-documentdb-with-mongodb-compatibility-to-build-and-manage-applications-at-scale/)

# Migrieren Sie eine lokale ThoughtSpot Falcon-Datenbank zu Amazon Redshift
<a name="migrate-an-on-premises-thoughtspot-falcon-database-to-amazon-redshift"></a>

*Battulga Purevragchaa und Antony Prasad Thevaraj, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-thoughtspot-falcon-database-to-amazon-redshift-summary"></a>

Lokale Data Warehouses erfordern viel Verwaltungszeit und Ressourcen, insbesondere bei großen Datensätzen. Die finanziellen Kosten für den Bau, die Wartung und den Ausbau dieser Lagerhäuser sind ebenfalls sehr hoch. Um die Kosten im Griff zu behalten, die Komplexität von Extrahieren, Transformieren und Laden (ETL) gering zu halten und die Leistung auch bei wachsenden Datenmengen zu gewährleisten, müssen Sie ständig entscheiden, welche Daten geladen und welche archiviert werden sollen.

Durch die Migration Ihrer lokalen [ThoughtSpot Falcon-Datenbanken](https://docs.thoughtspot.com/software/latest/data-caching) in die Amazon Web Services (AWS) Cloud können Sie auf Cloud-basierte Data Lakes und Data Warehouses zugreifen, die Ihre geschäftliche Flexibilität, Sicherheit und Anwendungszuverlässigkeit erhöhen und gleichzeitig Ihre gesamten Infrastrukturkosten senken. Amazon Redshift trägt dazu bei, die Kosten und den Betriebskosten eines Data Warehouse erheblich zu senken. Sie können Amazon Redshift Spectrum auch verwenden, um große Datenmengen im nativen Format zu analysieren, ohne dass Daten geladen werden müssen.

Dieses Muster beschreibt die Schritte und den Prozess für die Migration einer ThoughtSpot Falcon-Datenbank von einem lokalen Rechenzentrum zu einer Amazon Redshift Redshift-Datenbank in der AWS-Cloud.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-thoughtspot-falcon-database-to-amazon-redshift-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine ThoughtSpot Falcon-Datenbank, die in einem lokalen Rechenzentrum gehostet wird

**Produktversionen**
+ ThoughtSpot Version 7.0.1 

## Architektur
<a name="migrate-an-on-premises-thoughtspot-falcon-database-to-amazon-redshift-architecture"></a>

![\[Migration einer ThoughtSpot Falcon-Datenbank von einem lokalen Rechenzentrum zu Amazon Redshift.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/b0ca29f4-b269-4b57-b386-738693a6b334/images/2b483990-1f30-439c-ba13-dc0cb0650360.png)


 

Das Diagramm zeigt den folgenden Workflow:

1. Die Daten werden in einer lokalen relationalen Datenbank gehostet.

1. Das AWS Schema Conversion Tool (AWS SCT) konvertiert die Datendefinitionssprache (DDL), die mit Amazon Redshift kompatibel ist.

1. Nachdem die Tabellen erstellt wurden, können Sie die Daten mithilfe des AWS Database Migration Service (AWS DMS) migrieren.

1. Die Daten werden in Amazon Redshift geladen.

1. Die Daten werden in Amazon Simple Storage Service (Amazon S3) gespeichert, wenn Sie Redshift Spectrum verwenden oder die Daten bereits in Amazon S3 hosten.

## Tools
<a name="migrate-an-on-premises-thoughtspot-falcon-database-to-amazon-redshift-tools"></a>
+ [AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) — AWS Data Migration Service (AWS DMS) hilft Ihnen, Datenbanken schnell und sicher zu AWS zu migrieren.
+ [Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/gsg/getting-started.html) — Amazon Redshift ist ein schneller, vollständig verwalteter Data Warehouse-Service im Petabyte-Bereich, mit dem Sie all Ihre Daten mithilfe Ihrer vorhandenen Business Intelligence-Tools einfach und kostengünstig effizient analysieren können.
+ [AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) — Das AWS Schema Conversion Tool (AWS SCT) konvertiert Ihr vorhandenes Datenbankschema von einer Datenbank-Engine in eine andere.

## Epen
<a name="migrate-an-on-premises-thoughtspot-falcon-database-to-amazon-redshift-epics"></a>

### Bereite dich auf die Migration vor
<a name="prepare-for-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie die entsprechende Amazon Redshift Redshift-Konfiguration. | Identifizieren Sie die passende Amazon Redshift Redshift-Cluster-Konfiguration auf der Grundlage Ihrer Anforderungen und Ihres Datenvolumens. Weitere Informationen finden Sie unter [Amazon Redshift Redshift-Cluster](https://docs.aws.amazon.com/redshift/latest/mgmt/working-with-clusters.html) in der Amazon Redshift Redshift-Dokumentation. | DBA | 
| Informieren Sie sich über Amazon Redshift, um herauszufinden, ob es Ihren Anforderungen entspricht. | Verwenden Sie [Amazon Redshift FAQs](https://aws.amazon.com/redshift/faqs/), um zu verstehen und zu bewerten, ob Amazon Redshift Ihre Anforderungen erfüllt. | DBA | 

### Bereiten Sie den Amazon Redshift Redshift-Zielcluster vor
<a name="prepare-the-target-amazon-redshift-cluster"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen Amazon Redshift Redshift-Cluster. | Melden Sie sich bei der AWS-Managementkonsole an, öffnen Sie die Amazon Redshift Redshift-Konsole und erstellen Sie dann einen Amazon Redshift Redshift-Cluster in einer Virtual Private Cloud (VPC). Weitere Informationen finden Sie unter [Erstellen eines Clusters in einer VPC in](https://docs.aws.amazon.com/redshift/latest/mgmt/getting-started-cluster-in-vpc.html) der Amazon Redshift Redshift-Dokumentation. | DBA | 
| Führen Sie einen PoC für Ihr Amazon Redshift Redshift-Datenbankdesign durch. | Folgen Sie den Best Practices von Amazon Redshift, indem Sie einen Machbarkeitsnachweis (PoC) für Ihr Datenbankdesign durchführen. Weitere Informationen finden Sie unter [Durchführung eines Machbarkeitsnachweises für Amazon Redshift in der Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/proof-of-concept-playbook.html) Redshift-Dokumentation. | DBA | 
| Datenbankbenutzer erstellen. | Erstellen Sie die Benutzer in Ihrer Amazon Redshift Redshift-Datenbank und gewähren Sie die entsprechenden Rollen für den Zugriff auf das Schema und die Tabellen.  Weitere Informationen finden Sie unter [Gewähren von Zugriffsberechtigungen für einen Benutzer oder eine Benutzergruppe](https://docs.aws.amazon.com/redshift/latest/dg/r_GRANT.html) in der Amazon Redshift Redshift-Dokumentation. | DBA | 
| Wenden Sie die Konfigurationseinstellungen auf die Zieldatenbank an. | Wenden Sie die Konfigurationseinstellungen entsprechend Ihren Anforderungen auf die Amazon Redshift Redshift-Datenbank an. Weitere Informationen zur Aktivierung von Parametern auf Datenbank-, Sitzungs- und Serverebene finden Sie in der [Konfigurationsreferenz](https://docs.aws.amazon.com/redshift/latest/dg/cm_chap_ConfigurationRef.html) in der Amazon Redshift Redshift-Dokumentation. | DBA | 

### Objekte im Amazon Redshift Redshift-Cluster erstellen
<a name="create-objects-in-the-amazon-redshift-cluster"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie manuell Tabellen mit DDL in Amazon Redshift. | (Optional) Wenn Sie AWS SCT verwenden, werden die Tabellen automatisch erstellt. Wenn bei der Replikation jedoch Fehler auftreten DDLs, müssen Sie die Tabellen manuell erstellen | DBA | 
| Erstellen Sie externe Tabellen für Redshift Spectrum. | Erstellen Sie eine externe Tabelle mit einem externen Schema für Amazon Redshift Spectrum. Um externe Tabellen zu erstellen, müssen Sie der Eigentümer des externen Schemas oder ein [Datenbank-Superuser](https://docs.aws.amazon.com/redshift/latest/dg/r_superusers.html) sein. Weitere Informationen finden Sie unter [Erstellen externer Tabellen für Amazon Redshift Spectrum](https://docs.aws.amazon.com/redshift/latest/dg/c-spectrum-external-tables.html) in der Amazon Redshift-Dokumentation. | DBA | 

### Daten mit AWS DMS migrieren
<a name="migrate-data-using-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwenden Sie AWS DMS, um die Daten zu migrieren. | Nachdem Sie die DDL der Tabellen in der Amazon Redshift-Datenbank erstellt haben, migrieren Sie Ihre Daten mithilfe von AWS DMS zu Amazon Redshift.Ausführliche Schritte und Anweisungen finden Sie unter [Verwenden einer Amazon Redshift Redshift-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Redshift.html) in der AWS DMS-Dokumentation. | DBA | 
| Verwenden Sie den Befehl COPY, um die Daten zu laden. | Verwenden Sie den Amazon `COPY` Redshift-Befehl, um die Daten von Amazon S3 nach Amazon Redshift zu laden.Weitere Informationen finden Sie unter [Verwenden des COPY-Befehls zum Laden aus Amazon S3 in der Amazon](https://docs.aws.amazon.com/redshift/latest/dg/t_loading-tables-from-s3.html) Redshift Redshift-Dokumentation. | DBA | 

### Den Amazon Redshift Redshift-Cluster validieren
<a name="validate-the-amazon-redshift-cluster"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Quell- und Zieldatensätze.  | Überprüfen Sie die Tabellenanzahl für die Quell- und Zieldatensätze, die aus Ihrem Quellsystem geladen wurden. | DBA | 
| Implementieren Sie die Best Practices von Amazon Redshift zur Leistungsoptimierung. | Implementieren Sie die Best Practices von Amazon Redshift für das Tabellen- und Datenbankdesign. Weitere Informationen finden Sie im Blogbeitrag Die [10 wichtigsten Techniken zur Leistungsoptimierung für Amazon Redshift](https://aws.amazon.com/blogs/big-data/top-10-performance-tuning-techniques-for-amazon-redshift/). | DBA | 
| Optimieren Sie die Abfrageleistung. | Amazon Redshift verwendet SQL-basierte Abfragen, um mit Daten und Objekten im System zu interagieren. Die Datenmanipulationssprache (DML) ist die Teilmenge von SQL, mit der Sie Daten anzeigen, hinzufügen, ändern und löschen können. DDL ist die Teilmenge von SQL, die Sie zum Hinzufügen, Ändern und Löschen von Datenbankobjekten wie Tabellen und Ansichten verwenden.Weitere Informationen finden Sie unter [Optimieren der Abfrageleistung](https://docs.aws.amazon.com/redshift/latest/dg/c-optimizing-query-performance.html) in der Amazon Redshift Redshift-Dokumentation. | DBA | 
| Implementieren Sie WLM.  | Sie können Workload Management (WLM) verwenden, um mehrere Abfragewarteschlangen zu definieren und Abfragen zur Laufzeit an die entsprechenden Warteschlangen weiterzuleiten.Weitere Informationen finden Sie unter [Implementieren des Workload-Managements](https://docs.aws.amazon.com/redshift/latest/dg/cm-c-implementing-workload-management.html) in der Amazon Redshift Redshift-Dokumentation. | DBA | 
| Arbeiten Sie mit Parallelitätsskalierung. | Mithilfe der Concurrency Scaling-Funktion können Sie praktisch unbegrenzt viele gleichzeitige Benutzer und Abfragen bei gleichbleibend schneller Abfrageleistung unterstützen.Weitere Informationen finden Sie unter [Arbeiten mit Parallelitätsskalierung](https://docs.aws.amazon.com/redshift/latest/dg/concurrency-scaling.html) in der Amazon Redshift Redshift-Dokumentation. | DBA | 
| Verwenden Sie die Best Practices von Amazon Redshift für das Tabellendesign. | Bei der Planung Ihrer Datenbank können bestimmte wichtige Entscheidungen beim Tabellenentwurf die allgemeine Abfrageleistung stark beeinflussen.Weitere Informationen zur Auswahl der am [besten geeigneten Tabellenentwurfsoption finden Sie unter Bewährte Methoden für das Entwerfen von Tabellen für Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/c_designing-tables-best-practices.html) in der Amazon Redshift-Dokumentation. | DBA | 
| Erstellen Sie materialisierte Ansichten in Amazon Redshift. | Eine materialisierte Ansicht enthält einen vorberechneten Ergebnissatz, der auf einer SQL-Abfrage über eine oder mehrere Basistabellen basiert. Sie können `SELECT` Anweisungen zur Abfrage einer materialisierten Ansicht genauso ausgeben, wie Sie andere Tabellen oder Ansichten in der Datenbank abfragen.Weitere Informationen finden Sie unter [Erstellen materialisierter Ansichten in Amazon Redshift in der Amazon Redshift Redshift-Dokumentation](https://docs.aws.amazon.com/redshift/latest/dg/materialized-view-overview.html). | DBA | 
| Definieren Sie Verknüpfungen zwischen den Tabellen. | Um in mehr als einer Tabelle gleichzeitig zu suchen ThoughtSpot, müssen Sie Verknüpfungen zwischen den Tabellen definieren, indem Sie Spalten angeben, die übereinstimmende Daten aus zwei Tabellen enthalten. Diese Spalten stellen das `primary key` Ende `foreign key` der Verknüpfung dar.Sie können sie mit dem `ALTER TABLE` Befehl in Amazon Redshift oder ThoughtSpot definieren. Weitere Informationen finden Sie unter [ALTER TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_ALTER_TABLE.html) in der Amazon Redshift Redshift-Dokumentation. | DBA | 

### ThoughtSpot Verbindung zu Amazon Redshift einrichten
<a name="set-up-thoughtspot-connection-to-amazon-redshift"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
|  Fügen Sie eine Amazon Redshift Redshift-Verbindung hinzu. | Fügen Sie Ihrer lokalen ThoughtSpot Falcon-Datenbank eine Amazon Redshift Redshift-Verbindung hinzu.Weitere Informationen finden Sie in der ThoughtSpot Dokumentation unter [Hinzufügen einer Amazon Redshift Redshift-Verbindung](https://cloud-docs.thoughtspot.com/admin/ts-cloud/ts-cloud-embrace-redshift-add-connection.html). | DBA | 
| Bearbeiten Sie die Amazon Redshift Redshift-Verbindung. | Sie können die Amazon Redshift Redshift-Verbindung bearbeiten, um Tabellen und Spalten hinzuzufügen.Weitere Informationen finden Sie in der ThoughtSpot Dokumentation unter [Bearbeiten einer Amazon Redshift Redshift-Verbindung](https://cloud-docs.thoughtspot.com/admin/ts-cloud/ts-cloud-embrace-redshift-edit-connection.html). | DBA | 
| Ordnen Sie die Amazon Redshift Redshift-Verbindung neu zu. | Ändern Sie die Verbindungsparameter, indem Sie die Quell-Mapping-.yaml-Datei bearbeiten, die beim Hinzufügen der Amazon Redshift Redshift-Verbindung erstellt wurde. Sie können beispielsweise die bestehende Tabelle oder Spalte einer anderen Tabelle oder Spalte in einer bestehenden Datenbankverbindung neu zuordnen. ThoughtSpot empfiehlt, die Abhängigkeiten vor und nach der Neuzuweisung einer Tabelle oder Spalte in einer Verbindung zu überprüfen, um sicherzustellen, dass sie wie gewünscht angezeigt werden.Weitere Informationen finden Sie in der Dokumentation unter [Eine Amazon Redshift Redshift-Verbindung neu zuordnen](https://cloud-docs.thoughtspot.com/admin/ts-cloud/ts-cloud-embrace-redshift-remap-connection.html). ThoughtSpot  | DBA | 
| Löschen Sie eine Tabelle aus der Amazon Redshift Redshift-Verbindung.  | (Optional) Wenn Sie versuchen, eine Tabelle in einer Amazon Redshift Redshift-Verbindung zu entfernen, ThoughtSpot sucht es nach Abhängigkeiten und zeigt eine Liste der abhängigen Objekte an. Sie können die aufgelisteten Objekte auswählen, um sie zu löschen oder die Abhängigkeit zu entfernen. Anschließend können Sie die Tabelle entfernen.Weitere Informationen finden Sie in der ThoughtSpot Dokumentation unter [Löschen einer Tabelle aus einer Amazon Redshift Redshift-Verbindung](https://cloud-docs.thoughtspot.com/admin/ts-cloud/ts-cloud-embrace-redshift-delete-table.html). | DBA | 
|  Löschen Sie eine Tabelle mit abhängigen Objekten aus einer Amazon Redshift Redshift-Verbindung. | (Optional) Wenn Sie versuchen, eine Tabelle mit abhängigen Objekten zu löschen, wird der Vorgang blockiert. Es wird ein `Cannot delete` Fenster mit einer Liste von Links zu abhängigen Objekten angezeigt. Wenn alle Abhängigkeiten entfernt wurden, können Sie die Tabelle löschenWeitere Informationen finden Sie in der ThoughtSpot Dokumentation unter [Löschen einer Tabelle mit abhängigen Objekten aus einer Amazon Redshift Redshift-Verbindung](https://cloud-docs.thoughtspot.com/admin/ts-cloud/ts-cloud-embrace-redshift-delete-table-dependencies.html). | DBA | 
| Löschen Sie eine Amazon Redshift Redshift-Verbindung. | (Optional) Da eine Verbindung in mehreren Datenquellen oder Visualisierungen verwendet werden kann, müssen Sie alle Quellen und Aufgaben löschen, die diese Verbindung verwenden, bevor Sie die Amazon Redshift Redshift-Verbindung löschen können.Weitere Informationen finden Sie in der ThoughtSpot Dokumentation unter [Löschen einer Amazon Redshift Redshift-Verbindung](https://cloud-docs.thoughtspot.com/admin/ts-cloud/ts-cloud-embrace-redshift-delete-connection.html). | DBA | 
|  Überprüfen Sie die Verbindungsreferenz für Amazon Redshift. | Stellen Sie sicher, dass Sie die erforderlichen Informationen für Ihre Amazon Redshift Redshift-Verbindung angeben, indem Sie die [Verbindungsreferenz](https://cloud-docs.thoughtspot.com/admin/ts-cloud/ts-cloud-embrace-redshift-connection-reference.html) in der ThoughtSpot Dokumentation verwenden. | DBA | 

## Zusätzliche Informationen
<a name="migrate-an-on-premises-thoughtspot-falcon-database-to-amazon-redshift-additional"></a>
+ [KI-gestützte Analysen in jeder Größenordnung mit Amazon ThoughtSpot Redshift](https://aws.amazon.com/blogs/apn/ai-driven-analytics-at-any-scale-with-thoughtspot-and-amazon-redshift/)
+ [Amazon-Redshift-Preise](https://aws.amazon.com/redshift/pricing/)
+ [Erste Schritte mit AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_GettingStarted.html) 
+ [Erste Schritte mit Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/gsg/getting-started.html)
+ [Verwenden von Datenextraktionsagenten](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/agents.html)
+ [Chick-fil-A verbessert die Schnelligkeit, Erkenntnisse mit ThoughtSpot und AWS zu gewinnen](https://www.thoughtspot.com/sites/default/files/pdf/ThoughtSpot-Chick-fil-A-AWS-Case-Study.pdf) 

# Migrieren Sie mithilfe von Oracle von Oracle Database zu Amazon RDS for PostgreSQL GoldenGate
<a name="migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate"></a>

*Dhairya Jindani, Sindhusha Paturu und Rajeshkumar Sabankar, Amazon Web Services*

## Zusammenfassung
<a name="migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate-summary"></a>

Dieses Muster zeigt, wie eine Oracle-Datenbank mithilfe von Oracle Cloud Infrastructure (OCI) zu Amazon Relational Database Service (Amazon RDS) für PostgreSQL migriert wird. GoldenGate

Mithilfe von Oracle GoldenGate können Sie Daten mit minimaler Ausfallzeit zwischen Ihrer Quelldatenbank und einer oder mehreren Zieldatenbanken replizieren.

**Anmerkung**  
Die Oracle-Quelldatenbank kann sich entweder vor Ort oder auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance befinden. Sie können ein ähnliches Verfahren verwenden, wenn Sie lokale Replikationstools verwenden.

## Voraussetzungen und Einschränkungen
<a name="migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine GoldenGate Oracle-Lizenz
+ Java Database Connectivity (JDBC) -Treiber für die Verbindung mit der PostgreSQL-Datenbank
+ Schema und Tabellen, die mit dem [AWS Schema Conversion Tool (AWS SCT)](https://aws.amazon.com/dms/schema-conversion-tool/) auf der Amazon RDS for PostgreSQL PostgreSQL-Zieldatenbank erstellt wurden

**Einschränkungen**
+ Oracle GoldenGate kann nur bestehende Tabellendaten (erstes Laden) und laufende Änderungen (Erfassung von Änderungsdaten) replizieren

**Produktversionen**
+ Oracle Database Enterprise Edition 10g oder neuere Versionen 
+ Oracle GoldenGate 12.2.0.1.1 für Oracle oder neuere Versionen
+ Oracle GoldenGate 12.2.0.1.1 für PostgreSQL oder neuere Versionen

## Architektur
<a name="migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate-architecture"></a>

Das folgende Diagramm zeigt einen Beispiel-Workflow für die Migration einer Oracle-Datenbank zu Amazon RDS for PostgreSQL mithilfe von Oracle: GoldenGate

![\[Migrationsablauf von der lokalen Oracle-Datenbank zu Amazon RDS for PostgreSQL.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/384f0eaf-8582-474a-a7f4-ec1048a4feb3/images/de541887-0d5f-4a9a-b136-ce2599355cb8.png)


Das Diagramm zeigt den folgenden Workflow:

1. Der Oracle GoldenGate [Extract-Prozess](https://docs.oracle.com/goldengate/c1230/gg-winux/GGCON/processes-and-terminology.htm#GUID-6419F3A9-71EC-4D14-9C41-3BAA1E3CA19C) wird in der Quelldatenbank ausgeführt, um Daten zu extrahieren.

1. Der Oracle GoldenGate [Replicat-Prozess](https://docs.oracle.com/goldengate/c1230/gg-winux/GGCON/processes-and-terminology.htm#GUID-5EF0326C-9058-4C40-8925-98A223388C95) liefert die extrahierten Daten an die Amazon RDS for PostgreSQL PostgreSQL-Zieldatenbank.

## Tools
<a name="migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate-tools"></a>
+ [Oracle GoldenGate](https://www.oracle.com/integration/goldengate/#:~:text=OCI%20GoldenGate%20is%20a%20real,in%20the%20Oracle%20Cloud%20Infrastructure.) unterstützt Sie bei der Entwicklung, Ausführung, Orchestrierung und Überwachung Ihrer Datenreplikations- und Streaming-Datenverarbeitungslösungen in der Oracle Cloud-Infrastruktur.
+ [Amazon Relational Database Service (Amazon RDS) für PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen PostgreSQL-Datenbank in der AWS-Cloud.

## Epen
<a name="migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate-epics"></a>

### Laden Sie Oracle herunter und installieren Sie es GoldenGate
<a name="download-and-install-oracle-goldengate"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie Oracle herunter GoldenGate. | Laden Sie die folgenden Versionen von Oracle herunter GoldenGate:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate.html)Informationen zum Herunterladen der Software finden Sie unter [ GoldenGate Oracle-Downloads auf der Oracle-Website](https://www.oracle.com/middleware/technologies/goldengate-downloads.html). | DBA | 
| Installieren Sie Oracle GoldenGate für Oracle auf dem Oracle-Datenbankquellserver. | Anweisungen finden Sie in der [ GoldenGate Oracle-Dokumentation](https://docs.oracle.com/goldengate/1212/gg-winux/GIORA/toc.htm). | DBA | 
| Installieren Sie GoldenGate die Oracle for PostgreSQL-Datenbank auf der EC2 Amazon-Instance. | Anweisungen finden Sie in der [ GoldenGate Oracle-Dokumentation](https://docs.oracle.com/goldengate/1212/gg-winux/GIORA/toc.htm). | DBA | 

### Konfigurieren Sie Oracle GoldenGate in den Quell- und Zieldatenbanken
<a name="configure-oracle-goldengate-on-the-source-and-target-databases"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie Oracle GoldenGate for Oracle Database in der Quelldatenbank ein. | Anweisungen finden Sie in der [ GoldenGate Oracle-Dokumentation](https://docs.oracle.com/goldengate/1212/gg-winux/GIORA/toc.htm).Stellen Sie sicher, dass Sie Folgendes konfigurieren:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate.html) | DBA | 
| Richten Sie Oracle GoldenGate für PostgreSQL in der Zieldatenbank ein. | Anweisungen finden Sie in [Teil VI Using Oracle GoldenGate for PostgreSQL](https://docs.oracle.com/en/middleware/goldengate/core/19.1/gghdb/using-oracle-goldengate-postgresql.html) auf der Oracle-Website.Stellen Sie sicher, dass Sie Folgendes konfigurieren:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate.html) | DBA | 

### Konfigurieren Sie die Datenerfassung
<a name="configure-the-data-capture"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie den Extraktionsprozess in der Quelldatenbank ein. | Erstellen Sie in der Oracle-Quelldatenbank eine Extraktdatei, um Daten zu extrahieren.Anweisungen finden [Sie unter ADD EXTRACT](https://docs.oracle.com/goldengate/1212/gg-winux/GWURF/ggsci_commands006.htm#GWURF122) in der Oracle-Dokumentation.Die Extraktdatei beinhaltet die Erstellung der Extraktparameterdatei und des Traildateiverzeichnisses. | DBA | 
| Richten Sie eine Datenpumpe ein, um die Trail-Datei von der Quell- zur Zieldatenbank zu übertragen. | Erstellen Sie eine EXTRACT-Parameterdatei und ein Traildateiverzeichnis, indem Sie den Anweisungen in [PARFILE](https://docs.oracle.com/database/121/SUTIL/GUID-7A045C82-5993-44EB-AFAD-B7D39C34BCCD.htm#SUTIL859) in *Database Utilities* auf der Oracle-Website folgen.Weitere Informationen finden Sie unter [Was ist ein Trail](https://docs.oracle.com/goldengate/c1230/gg-winux/GGCON/processes-and-terminology.htm#GUID-88674F53-1E07-4C00-9868-598F82D7113C)? in *Fusion Middleware Understanding Oracle GoldenGate* auf der Oracle-Website. | DBA | 
| Richten Sie die Replikation auf der EC2 Amazon-Instance ein. | Erstellen Sie eine Replikationsparameterdatei und ein Traildateiverzeichnis.Weitere Informationen zum Erstellen von Replikationsparameterdateien finden Sie in Abschnitt [3.5 Validierung einer Parameterdatei](https://docs.oracle.com/en/middleware/goldengate/core/21.3/admin/using-oracle-goldengate-parameter-files.html#GUID-1E32A9AD-25DB-4243-93CD-E643E7116215) in der Oracle Database-Dokumentation.Weitere Informationen zum Erstellen eines Traildateiverzeichnisses finden Sie unter [Creating a Trail](https://docs.oracle.com/en/cloud/paas/goldengate-cloud/gwuad/creating-trail.html) in der Oracle Cloud-Dokumentation.Stellen Sie sicher, dass Sie der GLOBALS-Datei am Ziel einen Checkpoint-Tabelleneintrag hinzufügen.Weitere Informationen finden Sie unter [Was ist ein Replikat?](https://docs.oracle.com/goldengate/c1230/gg-winux/GGCON/processes-and-terminology.htm#GGCON-GUID-5EF0326C-9058-4C40-8925-98A223388C95) in *Fusion Middleware Understanding Oracle GoldenGate* auf der Oracle-Website. | DBA | 

### Konfigurieren Sie die Datenreplikation
<a name="configure-the-data-replication"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie in der Quelldatenbank eine Parameterdatei, um Daten für den ersten Ladevorgang zu extrahieren. | Folgen Sie den Anweisungen unter [Eine Parameterdatei in GGSCI erstellen](https://docs.oracle.com/en/cloud/paas/goldengate-cloud/gwuad/using-oracle-goldengate-parameter-files.html#GUID-5C49C522-8B28-4E4B-908D-66A33717CE6C) in der Oracle Cloud-Dokumentation.Stellen Sie sicher, dass der Manager auf dem Ziel läuft. | DBA | 
| Erstellen Sie in der Zieldatenbank eine Parameterdatei, um Daten für den ersten Ladevorgang zu replizieren. | Folgen Sie den Anweisungen unter [Eine Parameterdatei in GGSCI erstellen](https://docs.oracle.com/en/cloud/paas/goldengate-cloud/gwuad/using-oracle-goldengate-parameter-files.html#GUID-5C49C522-8B28-4E4B-908D-66A33717CE6C) in der Oracle Cloud-Dokumentation.Stellen Sie sicher, dass Sie den Replicat-Prozess hinzufügen und starten. | DBA | 

### Wechseln Sie zur Amazon RDS-Datenbank für PostgreSQL
<a name="cut-over-to-the-amazon-rds-for-postgresql-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Beenden Sie den Replicat-Prozess und stellen Sie sicher, dass die Quell- und Zieldatenbanken synchronisiert sind. | Vergleichen Sie die Zeilenanzahl zwischen der Quell- und der Zieldatenbank, um sicherzustellen, dass die Datenreplikation erfolgreich war. | DBA | 
| Konfigurieren Sie die Unterstützung für Data Definition Language (DDL). | Führen Sie das DDL-Skript zum Erstellen von Triggern, Sequenzen, Synonymen und Referenzschlüsseln in PostgreSQL aus.Sie können jede Standard-SQL-Clientanwendung verwenden, um eine Verbindung zu einer Datenbank in Ihrem DB-Cluster herzustellen. Sie können beispielsweise [pgAdmin](https://www.pgadmin.org/) verwenden, um eine Verbindung zu Ihrer DB-Instance herzustellen. | DBA | 

## Zugehörige Ressourcen
<a name="migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate-resources"></a>
+ [Amazon RDS for PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html) (*Amazon RDS-Benutzerhandbuch*)
+ [ EC2 Amazon-Dokumentation](https://docs.aws.amazon.com/ec2/)
+ [Von Oracle GoldenGate unterstützte Verarbeitungsmethoden und Datenbanken](https://docs.oracle.com/goldengate/1212/gg-winux/GWUAD/wu_about_gg.htm#GWUAD112) (Oracle-Dokumentation)

# Migrieren Sie eine partitionierte Oracle-Tabelle mithilfe von AWS DMS zu PostgreSQL
<a name="migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms"></a>

*Saurav Mishra und Eduardo Valentim, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms-summary"></a>

Dieses Muster beschreibt, wie das Laden einer partitionierten Tabelle von Oracle nach PostgreSQL mithilfe von AWS Database Migration Service (AWS DMS) beschleunigt werden kann, der keine native Partitionierung unterstützt. Die PostgreSQL-Zieldatenbank kann auf Amazon Elastic Compute Cloud (Amazon EC2) installiert werden, oder es kann sich um eine Amazon Relational Database Service (Amazon RDS) für PostgreSQL oder eine Amazon Aurora PostgreSQL-kompatible Edition-DB-Instance handeln. 

Das Hochladen einer partitionierten Tabelle umfasst die folgenden Schritte:

1. Erstellen Sie eine übergeordnete Tabelle, die der Oracle-Partitionstabelle ähnelt, aber keine Partition enthält.

1. Erstellen Sie untergeordnete Tabellen, die von der übergeordneten Tabelle erben, die Sie in Schritt 1 erstellt haben.

1. Erstellen Sie eine Prozedurfunktion und einen Trigger, um die Einfügungen in der übergeordneten Tabelle zu verarbeiten.

Da der Trigger jedoch bei jeder Einfügung ausgelöst wird, kann das anfängliche Laden mit AWS DMS sehr langsam sein.

Um die anfänglichen Ladevorgänge von Oracle nach PostgreSQL 9.0 zu beschleunigen, erstellt dieses Muster eine separate AWS-DMS-Aufgabe für jede Partition und lädt die entsprechenden untergeordneten Tabellen. Anschließend erstellen Sie während der Umstellung einen Trigger. 

PostgreSQL Version 10 unterstützt native Partitionierung. In einigen Fällen können Sie sich jedoch für die Verwendung der vererbten Partitionierung entscheiden. Weitere Informationen finden Sie im Abschnitt [Zusätzliche Informationen](#migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms-additional).

## Voraussetzungen und Einschränkungen
<a name="migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Oracle-Quelldatenbank mit einer partitionierten Tabelle
+ Eine PostgreSQL-Datenbank auf AWS

**Produktversionen**
+ PostgreSQL 9.0

## Architektur
<a name="migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ Eine partitionierte Tabelle in Oracle

**Zieltechnologie-Stack**
+ Eine partitionierte Tabelle in PostgreSQL (auf Amazon EC2, Amazon RDS for PostgreSQL oder Aurora PostgreSQL)

**Zielarchitektur**

![\[Partitionierte Tabellendaten in Oracle werden für jede Partition in eine AWS-DMS-Aufgabe und dann in PostgreSQL verschoben.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/7fa2898e-3308-436a-aec8-ab6f680d7bac/images/1b9742ea-a13d-434c-83a7-56686cf76ea0.png)


## Tools
<a name="migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms-tools"></a>
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.

## Epen
<a name="migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms-epics"></a>

### AWS DMS einrichten
<a name="set-up-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Tabellen in PostgreSQL. | Erstellen Sie die übergeordneten und die entsprechenden untergeordneten Tabellen in PostgreSQL mit den erforderlichen Prüfbedingungen für Partitionen. | DBA | 
| Erstellen Sie die AWS DMS-Aufgabe für jede Partition. | Nehmen Sie die Filterbedingung der Partition in die AWS DMS-Aufgabe auf. Ordnen Sie die Partitionen den entsprechenden PostgreSQL-Untertabellen zu. | DBA | 
| Führen Sie die AWS-DMS-Aufgaben mithilfe von Full Load and Change Data Capture (CDC) aus. | Stellen Sie sicher, dass der `StopTaskCachedChangesApplied` Parameter auf eingestellt ist `true` und der `StopTaskCachedChangesNotApplied` Parameter auf eingestellt ist. `false` | DBA | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Beenden Sie die Replikationsaufgaben. | Bevor Sie die Aufgaben beenden, stellen Sie sicher, dass Quelle und Ziel synchron sind. | DBA | 
| Erstellen Sie einen Trigger für die übergeordnete Tabelle. | Da die übergeordnete Tabelle alle Befehle zum Einfügen und Aktualisieren empfängt, sollten Sie einen Trigger erstellen, der diese Befehle auf der Grundlage der Partitionierungsbedingung an die jeweiligen untergeordneten Tabellen weiterleitet. | DBA | 

## Zugehörige Ressourcen
<a name="migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms-resources"></a>
+ [AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
+ [Tabellenpartitionierung (PostgreSQL-Dokumentation)](https://www.postgresql.org/docs/10/ddl-partitioning.html)

## Zusätzliche Informationen
<a name="migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms-additional"></a>

Obwohl PostgreSQL Version 10 die native Partitionierung unterstützt, können Sie sich für die folgenden Anwendungsfälle entscheiden, die vererbte Partitionierung zu verwenden:
+ Die Partitionierung erzwingt die Regel, dass alle Partitionen denselben Satz von Spalten wie die übergeordnete Partition haben müssen, aber die Tabellenvererbung unterstützt untergeordnete Partitionen mit zusätzlichen Spalten.
+ Die Tabellenvererbung unterstützt mehrere Vererbungen.
+ Die deklarative Partitionierung unterstützt nur die Listen- und Bereichspartitionierung. Mit der Tabellenvererbung können Sie die Daten beliebig aufteilen. Wenn der Einschränkungsausschluss Partitionen jedoch nicht effektiv bereinigen kann, wird die Abfrageleistung beeinträchtigt.
+ Einige Operationen benötigen eine stärkere Sperre, wenn deklarative Partitionierung verwendet wird als bei Verwendung der Tabellenvererbung. Zum Beispiel erfordert das Hinzufügen oder Entfernen einer Partition zu oder aus einer partitionierten Tabelle eine `ACCESS EXCLUSIVE` Sperre für die übergeordnete Tabelle, wohingegen eine `SHARE UPDATE EXCLUSIVE` Sperre für die reguläre Vererbung ausreicht.

Wenn Sie separate Jobpartitionen verwenden, können Sie Partitionen auch neu laden, falls Probleme mit der AWS DMS-Validierung auftreten. Führen Sie zur besseren Leistungs- und Replikationskontrolle Aufgaben auf separaten Replikationsinstanzen aus.

# Migrieren Sie von Amazon RDS for Oracle zu Amazon RDS for MySQL
<a name="migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-mysql"></a>

*Jitender Kumar, Srini Ramaswamy und Neha Sharma, Amazon Web Services*

## Zusammenfassung
<a name="migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-mysql-summary"></a>

Dieses Muster bietet Anleitungen für die Migration einer Amazon Relational Database Service (Amazon RDS) für Oracle-DB-Instance zu einer Amazon RDS for MySQL MySQL-DB-Instance auf Amazon Web Services (AWS). Das Muster verwendet den AWS Database Migration Service (AWS DMS) und das AWS Schema Conversion Tool (AWS SCT). 

Das Muster bietet bewährte Methoden für den Umgang mit der Migration von gespeicherten Prozeduren. Es behandelt auch Codeänderungen zur Unterstützung der Anwendungsebene. 

## Voraussetzungen und Einschränkungen
<a name="migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-mysql-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto.
+ Eine Amazon RDS for Oracle Oracle-Quelldatenbank.
+ Eine Zieldatenbank von Amazon RDS for MySQL. Quell- und Zieldatenbanken sollten sich in derselben Virtual Private Cloud (VPC) befinden. Wenn Sie mehrere VPCs verwenden oder über die erforderlichen Zugriffsberechtigungen verfügen müssen.
+ Sicherheitsgruppen, die Konnektivität zwischen den Quell- und Zieldatenbanken, AWS SCT, dem Anwendungsserver und AWS DMS ermöglichen.
+ Ein Benutzerkonto mit den erforderlichen Rechten, um AWS SCT in der Quelldatenbank auszuführen.
+ Zusätzliche Protokollierung für die Ausführung von AWS DMS in der Quelldatenbank aktiviert.

**Einschränkungen**
+ Die Größenbeschränkung für die Amazon RDS-Quell- und Zieldatenbank beträgt 64 TB. Informationen zur Größe von Amazon RDS finden Sie in der [AWS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Storage.html).
+ Oracle unterscheidet bei Datenbankobjekten nicht zwischen Groß- und Kleinschreibung, MySQL jedoch nicht. AWS SCT kann dieses Problem bei der Erstellung eines Objekts lösen. Es ist jedoch ein gewisses Maß an manueller Arbeit erforderlich, um die vollständige Berücksichtigung der Groß- und Kleinschreibung zu gewährleisten.
+ Diese Migration verwendet keine MySQL-Erweiterungen, um Oracle-native Funktionen zu aktivieren. AWS SCT übernimmt den größten Teil der Konvertierung, es sind jedoch einige Arbeiten erforderlich, um den Code manuell zu ändern.
+ Änderungen des JDBC-Treibers (Java Database Connectivity) sind in der Anwendung erforderlich.

**Produktversionen**
+ Amazon RDS for Oracle 12.2.0.1 und höher. Die derzeit unterstützten Versionen von RDS für Oracle finden Sie in der [AWS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Oracle.Concepts.database-versions.html).
+ Amazon RDS for MySQL 8.0.15 und höher. Die derzeit unterstützten Versionen von RDS für MySQL finden Sie in der [AWS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/MySQL.Concepts.VersionMgmt.html).
+ AWS DMS Version 3.3.0 und höher. Weitere Informationen zu den von AWS DMS unterstützten [Quell- und [Zielendpunkten](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Introduction.Targets.html)](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Introduction.Sources.html) finden Sie in der AWS-Dokumentation.
+ AWS SCT Version 1.0.628 und höher.  In der [AWS-Dokumentation finden Sie die AWS-SCT-Support-Matrix für Quell- und Zielendpunkte](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html).

## Architektur
<a name="migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-mysql-architecture"></a>

**Quelltechnologie-Stack**
+ Amazon RDS for Oracle. Weitere Informationen finden Sie unter [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html). 

**Zieltechnologie-Stack**
+ Amazon RDS for MySQL. Weitere Informationen finden Sie unter [Verwenden einer MySQL-kompatiblen Datenbank als Ziel für](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.MySQL.html) AWS DMS.

**Architektur der Migration**

In der folgenden Abbildung kopiert und konvertiert AWS SCT Schemaobjekte aus der Amazon RDS for Oracle Oracle-Quelldatenbank und sendet die Objekte an die Amazon RDS for MySQL MySQL-Zieldatenbank. AWS DMS repliziert Daten aus der Quelldatenbank und sendet sie an die Amazon RDS for MySQL MySQL-Instance.

![\[AWS SCT, AWS DMS und Amazon RDS werden in einem privaten Subnetz bereitgestellt.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/e1efa7c2-47c1-4677-80bc-6b19250fc0d6/images/b54a8442-9ab9-4074-b8f6-a08f87fa2f52.jpeg)


## Tools
<a name="migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-mysql-tools"></a>
+ [AWS Data Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.
+ [Amazon Relational Database Service (Amazon RDS)](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Datenbank in der AWS-Cloud. Dieses Muster verwendet [Amazon RDS for Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html) und [Amazon RDS for MySQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_MySQL.html).
+ Das [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist.

## Epen
<a name="migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-mysql-epics"></a>

### Bereiten Sie sich auf die Migration vor
<a name="prepare-for-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie die Versionen und Engines der Quell- und Zieldatenbank. |  | DBA | 
|  Identifizieren Sie die Hardwareanforderungen für die Zielserverinstanz. |  | DBA, SysAdmin | 
| Identifizieren Sie die Speicheranforderungen (Speichertyp und Kapazität). |  | DBA, SysAdmin | 
| Wählen Sie den richtigen Instanztyp (Kapazität, Speicherfunktionen, Netzwerkfunktionen). |  | DBA, SysAdmin | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken. |  | DBA, SysAdmin  | 
| Wählen Sie eine Strategie für die Anwendungsmigration. | Überlegen Sie, ob Sie eine vollständige oder eine teilweise Ausfallzeit für Umstellungsaktivitäten wünschen. | DBA, Besitzer der SysAdmin App | 

### Infrastruktur konfigurieren
<a name="configure-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine VPC und Subnetze. |  | SysAdmin | 
| Erstellen Sie Sicherheitsgruppen und Netzwerkzugriffskontrolllisten ()ACLs. |  | SysAdmin | 
| Konfigurieren und starten Sie die Amazon RDS for Oracle Oracle-Instance. |  | DBA, SysAdmin | 
| Konfigurieren und starten Sie die Amazon RDS for MySQL MySQL-Instance.  |  | DBA, SysAdmin | 
| Bereiten Sie einen Testfall für die Validierung der Codekonvertierung vor. | Dies hilft beim Testen von Einheiten für den konvertierten Code. | DBA, Entwickler | 
| Konfigurieren Sie die AWS DMS-Instanz. |  |  | 
| Konfigurieren Sie Quell- und Zielendpunkte in AWS DMS. |  |  | 

### Daten migrieren
<a name="migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Generieren Sie das Zieldatenbankskript mit AWS SCT. | Überprüfen Sie die Richtigkeit des Codes, der von AWS SCT konvertiert wurde. Einige manuelle Arbeiten sind erforderlich. | DBA, Entwickler | 
| Wählen Sie in AWS SCT die Einstellung „Groß- und Kleinschreibung nicht beachten“. | Wählen Sie in AWS SCT Project Settings, Target Case Sensitivity, Case Insensitive aus. | DBA, Entwickler | 
| Entscheiden Sie sich in AWS SCT dafür, die native Oracle-Funktion nicht zu verwenden. | Überprüfen Sie in den Projekteinstellungen die Funktionen TO\$1 \$1DATECHAR/TO\$1NUMBER/TO. | DBA, Entwickler | 
| Nehmen Sie Änderungen für den Code „sql%notfound“ vor. | Möglicherweise müssen Sie den Code manuell konvertieren. |  | 
| Abfragen von Tabellen und Objekten in gespeicherten Prozeduren (verwenden Sie Abfragen in Kleinbuchstaben). |  | DBA, Entwickler | 
| Erstellen Sie das primäre Skript, nachdem alle Änderungen vorgenommen wurden, und stellen Sie dann das primäre Skript in der Zieldatenbank bereit. |  | DBA, Entwickler | 
| Testen Sie gespeicherte Prozeduren und Anwendungsaufrufen anhand von Beispieldaten.  |  |  | 
| Bereinigen Sie Daten, die während des Komponententests erstellt wurden. |  | DBA, Entwickler | 
| Löschen Sie Fremdschlüsseleinschränkungen für die Zieldatenbank. | Dieser Schritt ist erforderlich, um die Anfangsdaten zu laden. Wenn Sie die Fremdschlüsseleinschränkungen nicht aufheben möchten, müssen Sie eine Migrationsaufgabe für Daten erstellen, die für die Primär- und Sekundärtabellen spezifisch sind. | DBA, Entwickler | 
| Löschen Sie Primärschlüssel und eindeutige Schlüssel in der Zieldatenbank. | Dieser Schritt führt zu einer besseren Leistung beim ersten Laden. | DBA, Entwickler | 
| Aktivieren Sie die zusätzliche Protokollierung in der Quelldatenbank.  |  | DBA | 
| Erstellen Sie eine Migrationsaufgabe für das erste Laden in AWS DMS und führen Sie sie dann aus. | Wählen Sie die Option zur Migration vorhandener Daten. | DBA | 
| Fügen Sie die Primärschlüssel und Fremdschlüssel zur Zieldatenbank hinzu. | Einschränkungen müssen nach dem ersten Laden hinzugefügt werden. | DBA, Entwickler | 
| Erstellen Sie eine Migrationsaufgabe für die laufende Replikation. | Durch die laufende Replikation wird die Zieldatenbank mit der Quelldatenbank synchronisiert. | DBA | 

### Anwendungen migrieren
<a name="migrate-applications"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Ersetzen Sie native Oracle-Funktionen durch native MySQL-Funktionen. |  | Besitzer der App | 
| Stellen Sie sicher, dass in SQL-Abfragen nur Namen in Kleinbuchstaben für Datenbankobjekte verwendet werden. |  | DBA SysAdmin, App-Besitzer | 

### Wechseln Sie zur Zieldatenbank
<a name="cut-over-to-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie den Anwendungsserver herunter. |  | Besitzer der App | 
| Stellen Sie sicher, dass die Quell- und Zieldatenbanken synchron sind. |  | DBA, Besitzer der App | 
| Stoppen Sie die Amazon RDS for Oracle DB-Instance. |  | DBA | 
| Beenden Sie die Migrationsaufgabe. | Dies wird automatisch beendet, nachdem Sie den vorherigen Schritt abgeschlossen haben. | DBA | 
| Ändern Sie die JDBC-Verbindung von Oracle zu MySQL. |  | Besitzer der App, DBA | 
| Starten Sie die Anwendung. |  | DBA SysAdmin, App-Besitzer | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA, SysAdmin | 
| Erfassen Sie Kennzahlen zur Zeit bis zur Migration, zum Prozentsatz manueller Aufgaben im Vergleich zu Toolaufgaben, zu Kosteneinsparungen usw. |  | DBA, SysAdmin | 
| Stoppen und löschen Sie AWS DMS-Instanzen. |  | DBA | 
| Entfernen Sie die Quell- und Zielendpunkte. |  | DBA | 
| Entfernen Sie Migrationsaufgaben. |  | DBA | 
| Erstellen Sie einen Snapshot der Amazon RDS for Oracle DB-Instance. |  | DBA | 
| Löschen Sie die Amazon RDS for Oracle DB-Instance. |  | DBA | 
| Fahren Sie alle anderen temporären AWS-Ressourcen herunter und löschen Sie sie, die Sie verwendet haben. |  | DBA, SysAdmin | 
| Schließen Sie das Projekt und geben Sie Feedback. |  | DBA | 

## Zugehörige Ressourcen
<a name="migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-mysql-resources"></a>
+ [AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
+ [AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/Welcome.html)
+ [Amazon RDS — Preise](https://aws.amazon.com/rds/pricing/)
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)

# Migrieren Sie mithilfe von AWS DMS und AWS SCT von IBM Db2 auf Amazon EC2 zu Aurora PostgreSQL-kompatibel
<a name="migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct"></a>

*Sirsendu Halder und Abhimanyu Chhabra, Amazon Web Services*

## Zusammenfassung
<a name="migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct-summary"></a>

Dieses Muster bietet Anleitungen für die Migration einer IBM Db2-Datenbank auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance zu einer Amazon Aurora PostgreSQL-kompatiblen Edition-DB-Instance. Dieses Muster verwendet AWS Database Migration Service (AWS DMS) und AWS Schema Conversion Tool (AWS SCT) für die Datenmigration und Schemakonvertierung.

Das Muster zielt auf eine Online-Migrationsstrategie mit geringen oder keinen Ausfallzeiten für eine IBM Db2-Datenbank mit mehreren Terabyte und einer hohen Anzahl von Transaktionen ab. Wir empfehlen, die Spalten in Primärschlüsseln (PKs) und Fremdschlüsseln (FKs) mit dem Datentyp `BIGINT` in `INT` oder in PostgreSQL `NUMERIC` zu konvertieren, um die Leistung zu verbessern. 

## Voraussetzungen und Einschränkungen
<a name="migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto 
+ Eine IBM Db2-Quelldatenbank auf einer Instance EC2 

**Produktversionen**
+ DB2/LINUXX8664 Version 11.1.4.4 und höher

## Architektur
<a name="migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct-architecture"></a>

**Quelltechnologie-Stack******
+ Eine Db2-Datenbank auf einer Instanz EC2  

**Zieltechnologie-Stack**
+ Eine Aurora PostgreSQL-kompatible DB-Instance der Version 10.18 oder höher

**Architektur der Datenbankmigration******

![\[Verwenden von AWS DMS für die Migration von IMB Db2 auf Amazon EC2 zu Aurora PostgreSQL-kompatibel.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/5e737fab-3e04-4887-9fb0-d1c88503b57d/images/789fabcc-8052-40d5-a746-986d799576e9.png)


## Tools
<a name="migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct-tools"></a>
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenbanken in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups. Die Quelldatenbank bleibt während der Migration voll funktionsfähig, wodurch Ausfallzeiten für Anwendungen, die auf die Datenbank angewiesen sind, minimiert werden. Sie können AWS DMS verwenden, um Ihre Daten zu und von den am häufigsten verwendeten kommerziellen und Open-Source-Datenbanken zu migrieren. AWS DMS unterstützt heterogene Migrationen zwischen verschiedenen Datenbankplattformen wie IBM Db2 zur Aurora PostgreSQL-kompatiblen Version 10.18 oder höher. Einzelheiten finden Sie unter [Quellen für die Datenmigration](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.html) und [Ziele für die Datenmigration](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.html) in der AWS DMS-Dokumentation.
+ Das [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil der Datenbankcodeobjekte, einschließlich Ansichten, gespeicherten Prozeduren und Funktionen, automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist. Alle Objekte, die nicht automatisch konvertiert werden, sind deutlich gekennzeichnet, sodass sie manuell konvertiert werden können, um die Migration abzuschließen. AWS SCT kann auch den Quellcode der Anwendung nach eingebetteten SQL-Anweisungen scannen und diese konvertieren. 

## Epen
<a name="migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct-epics"></a>

### Richte die Umgebung ein
<a name="set-up-the-environment"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Aurora PostgreSQL-kompatible DB-Instance. | Folgen Sie den Anweisungen in der [AWS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_CreateDBInstance.html), um die DB-Instance zu erstellen. Wählen Sie als Motortyp **Amazon Aurora**. Wählen Sie als Edition die **Amazon Aurora PostgreSQL-kompatible** Edition.Die Aurora PostgreSQL-kompatible DB-Instance der Version 10.18 oder höher sollte sich in derselben Virtual Private Cloud (VPC) wie die IBM Db2-Quelldatenbank befinden. | Amazon RDS | 

### Konvertieren Sie Ihr Datenbankschema
<a name="convert-your-database-schema"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren und verifizieren Sie AWS SCT. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct.html) | AWS-Administrator, DBA, Migrationsingenieur | 
| Starten Sie AWS SCT und erstellen Sie ein Projekt. | Um das AWS SCT-Tool zu starten und ein neues Projekt zur Ausführung eines Bewertungsberichts zur Datenbankmigration zu erstellen, folgen Sie den Anweisungen in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html#CHAP_UserInterface.Launching). | Migrationsingenieur | 
| Fügen Sie Datenbankserver hinzu und erstellen Sie eine Zuordnungsregel. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct.html) | Migrationsingenieur | 
| Erstellen Sie einen Bewertungsbericht zur Datenbankmigration.  | Erstellen Sie den Bewertungsbericht zur Datenbankmigration, indem Sie die Schritte in der [AWS SCT-Dokumentation befolgen](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html#CHAP_UserInterface.AssessmentReport). | Migrationsingenieur | 
| Sehen Sie sich den Bewertungsbericht an. | Verwenden Sie die Registerkarte **Zusammenfassung** des Bewertungsberichts zur Datenbankmigration, um den Bericht anzuzeigen und die Daten zu analysieren. Anhand dieser Analyse können Sie die Komplexität der Migration ermitteln. Weitere Informationen finden Sie in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_AssessmentReport.View.html). | Migrationsingenieur | 
| Konvertiert das Schema. | Um Ihre Quelldatenbankschemas zu konvertieren:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct.html)Weitere Informationen finden Sie in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html#CHAP_UserInterface.Converting). | Migrationsingenieur | 
| Wenden Sie das konvertierte Datenbankschema auf die Ziel-DB-Instance an. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct.html)Weitere Informationen finden Sie in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html#CHAP_UserInterface.ApplyingConversion). | Migrationsingenieur | 

### Migrieren Sie Ihre Daten
<a name="migrate-your-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie eine VPC und DB-Parametergruppen ein.  | Richten Sie eine VPC und DB-Parametergruppen ein und konfigurieren Sie die für die Migration erforderlichen Regeln und Parameter für eingehenden Datenverkehr. Anweisungen finden Sie in der [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.Prerequisites.html).Wählen Sie für die VPC-Sicherheitsgruppe sowohl die EC2 Instance für Db2 als auch die Aurora PostgreSQL-kompatible DB-Instance aus. Diese Replikationsinstanz muss sich in derselben VPC wie die Quell- und Ziel-DB-Instances befinden. | Migrationsingenieur | 
| Bereiten Sie Quell- und Ziel-DB-Instances vor. | Bereiten Sie die Quell- und Ziel-DB-Instances für die Migration vor. In einer Produktionsumgebung ist die Quelldatenbank bereits vorhanden.Für die Quelldatenbank muss der Servername das öffentliche Domain Name System (DNS) der EC2 Instanz sein, auf der Db2 läuft. Als Benutzernamen können Sie `db2inst1` gefolgt vom Port verwenden, der für IBM Db2 5000 lautet.  | Ingenieur für Migration | 
| Erstellen Sie einen EC2 Amazon-Client und Endgeräte. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct.html) | Migrationsingenieur | 
| Erstellen Sie eine Replikationsinstanz. | Erstellen Sie mithilfe der AWS DMS-Konsole eine Replikationsinstanz und geben Sie die Quell- und Zielendpunkte an. Die Replikationsinstanz führt die Datenmigration zwischen den Endpunkten durch. Weitere Informationen finden Sie in [der AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.Replication.html).  | Migrationsingenieur | 
| Erstellen Sie eine AWS DMS-Aufgabe, um die Daten zu migrieren. | Erstellen Sie eine Aufgabe, um die IBM Db2-Quelltabellen in die PostgreSQL-DB-Zielinstanz zu laden, indem Sie die Schritte in der [AWS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.Replication.html#CHAP_GettingStarted.Replication.Tasks) DMS-Dokumentation befolgen.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct.html) | Ingenieur für Migration | 

## Zugehörige Ressourcen
<a name="migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct-resources"></a>

**Referenzen**
+ [Amazon Aurora Aurora-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_AuroraOverview.html)
+ [Dokumentation zum PostgreSQL Foreign Data Wrapper (FDW)](https://www.postgresql.org/docs/10/postgres-fdw.html) 
+ [Dokumentation zu PostgreSQL IMPORT FOREIGN SCHEMA](https://www.postgresql.org/docs/10/sql-importforeignschema.html) 
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/index.html)  
+ [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) 

**Tutorials und Videos**
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/) (exemplarische Vorgehensweise)
+ [Einführung in Amazon EC2 — Elastic Cloud Server und Hosting mit AWS](https://www.youtube.com/watch?v=TsRBftzZsQo) (Video)

# Migrieren Sie mithilfe von AWS DMS von Oracle 8i oder 9i zu Amazon RDS for PostgreSQL SharePlex
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-shareplex-and-aws-dms"></a>

*Kumar Babu PG, Amazon Web Services*

## Zusammenfassung
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-shareplex-and-aws-dms-summary"></a>

Dieses Muster beschreibt, wie eine lokale Oracle 8i- oder 9i-Datenbank zu Amazon Relational Database Service (Amazon RDS) für PostgreSQL oder Amazon Aurora PostgreSQL migriert wird. AWS Database Migration Service (AWS DMS) unterstützt Oracle 8i oder 9i nicht als Quelle, sodass Quest Daten aus einer lokalen 8i- oder 9i-Datenbank in eine Oracle-Zwischendatenbank (Oracle 10g oder 11g) SharePlex repliziert, die mit AWS DMS kompatibel ist.

Von der Oracle-Zwischeninstanz werden das Schema und die Daten mithilfe des AWS Schema Conversion Tool (AWS SCT) und AWS DMS in die PostgreSQL-Datenbank auf AWS migriert. Diese Methode hilft dabei, ein kontinuierliches Streaming von Daten von der Oracle-Quelldatenbank zur PostgreSQL-DB-Zielinstanz mit minimaler Replikationsverzögerung zu erreichen. In dieser Implementierung ist die Ausfallzeit auf die Zeit begrenzt, die benötigt wird, um alle Fremdschlüssel, Trigger und Sequenzen in der PostgreSQL-Zieldatenbank zu erstellen oder zu validieren.

Die Migration verwendet eine Amazon Elastic Compute Cloud (Amazon EC2) -Instance, auf der Oracle 10g oder 11g installiert ist, um die Änderungen aus der Oracle-Quelldatenbank zu hosten. AWS DMS verwendet diese Oracle-Zwischeninstanz als Quelle, um die Daten an Amazon RDS for PostgreSQL oder Aurora PostgreSQL zu streamen. Die Datenreplikation kann von der lokalen Oracle-Datenbank zur Oracle-Zwischeninstanz angehalten und wieder aufgenommen werden. Es kann auch angehalten und von der Oracle-Zwischeninstanz zur PostgreSQL-Zieldatenbank fortgesetzt werden, sodass Sie die Daten entweder mit der AWS DMS-Datenvalidierung oder einem benutzerdefinierten Datenvalidierungstool validieren können.

## Voraussetzungen und Einschränkungen
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-shareplex-and-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Oracle 8i- oder 9i-Quelldatenbank in einem lokalen Rechenzentrum 
+ AWS Direct Connect, konfiguriert zwischen dem lokalen Rechenzentrum und AWS 
+ Java Database Connectivity (JDBC) -Treiber für AWS SCT-Connectors, die entweder auf einem lokalen Computer oder auf der EC2 Instance installiert sind, auf der AWS SCT installiert ist
+ Vertrautheit mit [der Verwendung einer Oracle-Datenbank als AWS-DMS-Quelle](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ Vertrautheit mit [der Verwendung einer PostgreSQL-Datenbank als AWS-DMS-Ziel](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html)
+ Vertrautheit mit der Quest-Datenreplikation SharePlex 

 

**Einschränkungen**
+ Die maximale Datenbankgröße beträgt 64 TB
+ Bei der lokalen Oracle-Datenbank muss es sich um die Enterprise Edition handeln

 

**Produktversionen**
+ Oracle 8i oder 9i für die Quelldatenbank
+ Oracle 10g oder 11g für die Zwischendatenbank 
+ PostgreSQL 9.6 oder höher

## Architektur
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-shareplex-and-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ Oracle 8i- oder 9i-Datenbank 
+ Suche SharePlex 

 

**Zieltechnologie-Stack**
+ Amazon RDS for PostgreSQL oder Aurora PostgreSQL 

** **

**Quell- und Zielarchitektur**

![\[Architecture diagram showing migration from on-premises Oracle database to AWS cloud using various services.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/b6c30668-fc2e-4293-a59a-e01fd151f4bb/images/25082670-0bf3-4b20-8c80-99c6633b046f.png)


## Tools
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-shareplex-and-aws-dms-tools"></a>
+ **AWS DMS** — Mit dem [AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html) (AWS DMS) können Sie Datenbanken schnell und sicher migrieren. Die Quelldatenbank bleibt während der Migration voll funktionsfähig, wodurch Ausfallzeiten für Anwendungen, die auf die Datenbank angewiesen sind, minimiert werden. AWS DMS kann Ihre Daten zu und von den am häufigsten verwendeten kommerziellen und Open-Source-Datenbanken migrieren. 
+ **AWS SCT** — Das [AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) (AWS SCT) macht heterogene Datenbankmigrationen vorhersehbar, indem das Quelldatenbankschema und ein Großteil der Datenbankcodeobjekte, einschließlich Ansichten, gespeicherten Prozeduren und Funktionen, automatisch in ein mit der Zieldatenbank kompatibles Format konvertiert werden. Objekte, die nicht automatisch konvertiert werden können, sind deutlich gekennzeichnet, sodass sie manuell konvertiert werden können, um die Migration abzuschließen. AWS SCT kann Ihren Anwendungsquellcode auch nach eingebetteten SQL-Anweisungen scannen und diese im Rahmen eines Datenbankschema-Konvertierungsprojekts konvertieren. Während dieses Prozesses führt AWS SCT eine cloudnative Codeoptimierung durch, indem es ältere Oracle- und SQL Server-Funktionen in ihre AWS-Entsprechungen konvertiert, um Sie bei der Modernisierung Ihrer Anwendungen und der Migration Ihrer Datenbanken zu unterstützen. Wenn die Schemakonvertierung abgeschlossen ist, kann AWS SCT mithilfe integrierter Datenmigrationsagenten bei der Migration von Daten aus einer Reihe von Data Warehouses nach Amazon Redshift helfen.
+ **Quest SharePlex** — [Quest SharePlex](https://www.quest.com/register/120420/?gclid=Cj0KCQiA6IHwBRCJARIsALNjViVSt9fHqAsf9XbWkoCwKKyQqollR_5kSxNhBagh9s3spQT4IQCaVy0aAmCnEALw_wcB) ist ein Oracle-to-Oracle Datenreplikationstool zum Verschieben von Daten mit minimalen Ausfallzeiten und ohne Datenverlust.

## Epen
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-shareplex-and-aws-dms-epics"></a>

### Erstellen Sie die EC2 Instanz und installieren Sie Oracle
<a name="create-the-ec2-instance-and-install-oracle"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie das Netzwerk für Amazon ein EC2. | Erstellen Sie die Virtual Private Cloud (VPC), die Subnetze, das Internet-Gateway, die Routing-Tabellen und die Sicherheitsgruppen. | AWS SysAdmin | 
| Erstellen Sie die neue EC2 Instanz. | Wählen Sie das Amazon Machine Image (AMI) für die EC2 Instance aus. Wählen Sie die Instanzgröße und konfigurieren Sie die Instanzdetails: die Anzahl der Instanzen (1), die VPC und das Subnetz aus dem vorherigen Schritt, automatische Zuweisung öffentlicher IP-Adressen und andere Optionen. Fügen Sie Speicher hinzu, konfigurieren Sie Sicherheitsgruppen und starten Sie die Instance. Wenn Sie dazu aufgefordert werden, erstellen und speichern Sie ein key pair für den nächsten Schritt. | AWS SysAdmin | 
| Installieren Sie Oracle auf der EC2 Instanz. | Erwerben Sie die Lizenzen und die erforderlichen Oracle-Binärdateien und installieren Sie Oracle 10g oder 11g auf der Instance. EC2  | DBA | 

### SharePlex Auf einer EC2 Instanz einrichten und Datenreplikation konfigurieren
<a name="set-up-shareplex-on-an-ec2-instance-and-configure-data-replication"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Einrichten SharePlex. | Erstellen Sie eine EC2 Amazon-Instance und installieren Sie die SharePlex Binärdateien, die mit Oracle 8i oder 9i kompatibel sind. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Datenreplikation. | Folgen Sie den SharePlex bewährten Methoden, um die Datenreplikation von einer lokalen Oracle 8i/9i-Datenbank auf eine Oracle 10g/11g-Instanz zu konfigurieren. | DBA | 

### Das Oracle-Datenbankschema nach PostgreSQL konvertieren
<a name="convert-the-oracle-database-schema-to-postgresql"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie AWS SCT ein. | Erstellen Sie einen neuen Bericht und stellen Sie dann eine Verbindung zu Oracle als Quelle und PostgreSQL als Ziel her. Öffnen Sie in den Projekteinstellungen die Registerkarte SQL Scripting und ändern Sie das Ziel-SQL-Skript in Mehrere Dateien. | DBA | 
| Konvertiert das Oracle-Datenbankschema. | Wählen Sie auf der Registerkarte Aktion die Optionen Bericht generieren, Schema konvertieren und dann Als SQL speichern aus. | DBA | 
| Ändern Sie die von AWS SCT generierten SQL-Skripts. |  | DBA | 

### Erstellen und konfigurieren Sie die Amazon RDS-DB-Instance
<a name="create-and-configure-the-amazon-rds-db-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Amazon RDS-DB-Instance. | Erstellen Sie in der Amazon RDS-Konsole eine neue PostgreSQL-DB-Instance. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die DB-Instance. | Geben Sie die DB-Engine-Version, die DB-Instance-Klasse, die Multi-AZ-Bereitstellung, den Speichertyp und den zugewiesenen Speicher an. Geben Sie die DB-Instance-ID, einen Master-Benutzernamen und ein Master-Passwort ein. | AWS SysAdmin, DBA | 
| Netzwerk und Sicherheit konfigurieren. | Geben Sie die VPC, die Subnetzgruppe, den öffentlichen Zugriff, die Availability Zone-Präferenz und die Sicherheitsgruppen an. | AWS SysAdmin, DBA | 
| Datenbankoptionen konfigurieren. | Geben Sie den Datenbanknamen, den Port, die Parametergruppe, die Verschlüsselung und den Hauptschlüssel an. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Sicherungen. | Geben Sie den Aufbewahrungszeitraum für Backups, das Backup-Fenster, die Startzeit und die Dauer an und ob Tags in Snapshots kopiert werden sollen. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Überwachungsoptionen. | Aktivieren oder deaktivieren Sie erweiterte Überwachungs- und Leistungseinblicke. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Wartungsoptionen. | Geben Sie das auto Upgrade der Nebenversion, das Wartungsfenster sowie den Starttag, die Uhrzeit und die Dauer an. | AWS SysAdmin, DBA | 
| Führen Sie die Skripts vor der Migration von AWS SCT aus. | Führen Sie auf der Amazon RDS-Instance die folgenden Skripts aus: create\$1database.sql, create\$1sequence.sql, create\$1table.sql, create\$1view.sql und create\$1function.sql. | AWS SysAdmin, DBA | 

### Migrieren Sie Daten mithilfe von AWS DMS
<a name="migrate-data-by-using-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Replikationsinstanz in AWS DMS. | Füllen Sie die Felder für den Namen, die Instance-Klasse, die VPC (wie für die EC2 Instance), Multi-AZ und den öffentlichen Zugriff aus. Geben Sie im Abschnitt für die erweiterte Konfiguration den zugewiesenen Speicher, die Subnetzgruppe, die Availability Zone, die VPC-Sicherheitsgruppen und den AWS Key Management Service (AWS KMS) -Root-Schlüssel an. | AWS SysAdmin, DBA | 
| Erstellen Sie den Endpunkt der Quelldatenbank. | Geben Sie den Endpunktnamen, den Typ, die Quell-Engine (Oracle), den Servernamen (Amazon EC2 Private DNS-Name), den Port, den SSL-Modus, den Benutzernamen, das Passwort, die SID, die VPC (geben Sie die VPC an, die die Replikationsinstanz hat) und die Replikationsinstanz an. Um die Verbindung zu testen, wählen Sie Test ausführen und erstellen Sie dann den Endpunkt. Sie können auch die folgenden erweiterten Einstellungen konfigurieren: maxFileSize und numberDataType Skalieren. | AWS SysAdmin, DBA | 
| Erstellen Sie die AWS DMS-Replikationsaufgabe. | Geben Sie den Namen der Aufgabe, die Replikationsinstanz, die Quell- und Zielendpunkte sowie die Replikationsinstanz an. Wählen Sie als Migrationstyp „Bestehende Daten migrieren und laufende Änderungen replizieren“. Deaktivieren Sie das Kontrollkästchen „Aufgabe beim Erstellen starten“. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Einstellungen für die AWS DMS-Replikationsaufgabe. | Wählen Sie für den Modus zur Vorbereitung der Zieltabelle „Nichts tun“. Beenden Sie die Aufgabe, nachdem der vollständige Ladevorgang abgeschlossen ist, um Primärschlüssel zu erstellen. Geben Sie den eingeschränkten oder vollständigen LOB-Modus an und aktivieren Sie Steuertabellen. Optional können Sie die CommitRate erweiterte Einstellung konfigurieren. | DBA | 
| Konfigurieren Sie die Tabellenzuordnungen. | Erstellen Sie im Abschnitt Tabellenzuordnungen eine Einschlussregel für alle Tabellen in allen Schemas, die in der Migration enthalten sind, und erstellen Sie dann eine Ausschlussregel. Fügen Sie drei Transformationsregeln hinzu, um die Schema-, Tabellen- und Spaltennamen in Kleinbuchstaben umzuwandeln, und fügen Sie alle anderen Regeln hinzu, die für diese spezielle Migration erforderlich sind. | DBA | 
| Starten Sie die -Aufgabe. | Starten Sie die Replikationsaufgabe. Stellen Sie sicher, dass die Volllast läuft. Führen Sie ALTER SYSTEM SWITCH LOGFILE in der primären Oracle-Datenbank aus, um die Aufgabe zu starten. | DBA | 
| Führen Sie die Skripts während der Migration von AWS SCT aus. | Führen Sie in Amazon RDS for PostgreSQL die folgenden Skripts aus: create\$1index.sql und create\$1constraint.sql. | DBA | 
| Starten Sie die Aufgabe neu, um mit der Erfassung von Änderungsdaten (CDC) fortzufahren. | Führen Sie VACUUM in der Amazon RDS for PostgreSQL PostgreSQL-DB-Instance aus und starten Sie die AWS DMS-Aufgabe neu, um die zwischengespeicherten CDC-Änderungen anzuwenden. | DBA | 

### Wechseln Sie zur PostgreSQL-Datenbank
<a name="cut-over-to-the-postgresql-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die AWS-DMS-Protokolle und Metadatentabellen. | Überprüfen Sie alle Fehler und korrigieren Sie sie gegebenenfalls. | DBA | 
| Stoppen Sie alle Oracle-Abhängigkeiten. | Fahren Sie die Listener in der Oracle-Datenbank herunter und führen Sie ALTER SYSTEM SWITCH LOGFILE aus. Beenden Sie die AWS DMS-Aufgabe, wenn keine Aktivität angezeigt wird. | DBA | 
| Führen Sie die Skripts nach der Migration von AWS SCT aus. | Führen Sie in Amazon RDS for PostgreSQL die folgenden Skripts aus: create\$1foreign\$1key\$1constraint.sql und create\$1triggers.sql. | DBA | 
| Führen Sie alle weiteren Schritte von Amazon RDS for PostgreSQL aus. | Inkrementieren Sie die Sequenzen bei Bedarf so, dass sie mit Oracle übereinstimmen, führen Sie VACUUM und ANALYZE aus und erstellen Sie aus Compliance-Gründen einen Snapshot. | DBA | 
| Öffnen Sie die Verbindungen zu Amazon RDS for PostgreSQL. | Entfernen Sie die AWS DMS-Sicherheitsgruppen aus Amazon RDS for PostgreSQL, fügen Sie Produktionssicherheitsgruppen hinzu und verweisen Sie Ihre Anwendungen auf die neue Datenbank. | DBA | 
| Bereinigen Sie die AWS-DMS-Ressourcen. | Entfernen Sie die Endgeräte, Replikationsaufgaben, Replikationsinstanzen und die EC2 Instanz. | SysAdmin, DBA | 

## Zugehörige Ressourcen
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-shareplex-and-aws-dms-resources"></a>
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html)
+ [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ [Preise für Amazon RDS for PostgreSQL](https://aws.amazon.com/rds/postgresql/pricing/)
+ [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ [Verwenden einer PostgreSQL-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html) 
+ [ SharePlex Quest-Dokumentation](https://support.quest.com/shareplex/9.0.2/technical-documents)

# Migrieren Sie mithilfe von Materialized Views und AWS DMS von Oracle 8i oder 9i zu Amazon RDS for PostgreSQL
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-materialized-views-and-aws-dms"></a>

*Kumar Babu P G und Pragnesh Patel, Amazon Web Services*

## Zusammenfassung
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-materialized-views-and-aws-dms-summary"></a>

Dieses Muster beschreibt, wie eine lokale ältere Oracle 8i- oder 9i-Datenbank zu Amazon Relational Database Service (Amazon RDS) for PostgreSQL oder Amazon Aurora PostgreSQL-Compatible Edition migriert wird. 

AWS Database Migration Service (AWS DMS) unterstützt Oracle 8i oder 9i nicht als Quelle. Daher verwendet dieses Muster eine zwischengeschaltete Oracle-Datenbankinstanz, die mit AWS DMS kompatibel ist, wie Oracle 10g oder 11g. Es verwendet auch die Funktion Materialized Views, um Daten von der Oracle 8i/9i-Quellinstanz zur Oracle 10g/11g-Zwischeninstanz zu migrieren.

Das AWS Schema Conversion Tool (AWS SCT) konvertiert das Datenbankschema, und AWS DMS migriert die Daten in die PostgreSQL-Zieldatenbank. 

Dieses Muster hilft Benutzern, die von älteren Oracle-Datenbanken mit minimaler Datenbankausfallzeit migrieren möchten. In dieser Implementierung wäre die Ausfallzeit auf den Zeitraum begrenzt, der benötigt wird, um alle Fremdschlüssel, Trigger und Sequenzen in der Zieldatenbank zu erstellen oder zu validieren. 

Das Muster verwendet Amazon Elastic Compute Cloud (Amazon EC2) -Instances mit einer installierten Oracle 10g/11g-Datenbank, um AWS DMS beim Streamen der Daten zu unterstützen. Sie können die Streaming-Replikation von der lokalen Oracle-Datenbank zur Oracle-Zwischeninstanz vorübergehend unterbrechen, damit AWS DMS die Datenvalidierung catch oder ein anderes Datenvalidierungstool verwenden kann. Die PostgreSQL-DB-Instance und die Oracle-Zwischendatenbank verfügen über dieselben Daten, wenn AWS DMS die Migration der aktuellen Änderungen abgeschlossen hat.

## Voraussetzungen und Einschränkungen
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-materialized-views-and-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Oracle 8i- oder 9i-Quelldatenbank in einem lokalen Rechenzentrum 
+ AWS Direct Connect, konfiguriert zwischen dem lokalen Rechenzentrum und AWS
+ Java Database Connectivity (JDBC) -Treiber für AWS SCT-Connectors, die entweder auf einem lokalen Computer oder auf der EC2 Instance installiert sind, auf der AWS SCT installiert ist
+ Vertrautheit mit [der Verwendung einer Oracle-Datenbank als AWS-DMS-Quelle](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ Vertrautheit mit [der Verwendung einer PostgreSQL-Datenbank als AWS-DMS-Ziel](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html)

**Einschränkungen**
+ Die maximale Datenbankgröße beträgt 64 TB

**Produktversionen**
+ Oracle 8i oder 9i für die Quelldatenbank
+ Oracle 10g oder 11g für die Zwischendatenbank
+ PostgreSQL 10.17 oder höher

## Architektur
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-materialized-views-and-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ Oracle 8i- oder 9i-Datenbank 

**Zieltechnologie-Stack**
+ Amazon RDS for PostgreSQL oder Aurora PostgreSQL-kompatibel

**Zielarchitektur**

![\[Architektur für die Migration von einer älteren Oracle-Datenbank zu Amazon RDS oder Aurora\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/8add9b21-1b62-46a2-bb8e-0350f36a924a/images/f34f9b0f-f1da-4c27-a385-71b12d16c375.png)


## Tools
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-materialized-views-and-aws-dms-tools"></a>
+ [AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html) hilft bei der schnellen und sicheren Migration von Datenbanken. Die Quelldatenbank bleibt während der Migration voll funktionsfähig, wodurch Ausfallzeiten für Anwendungen, die auf die Datenbank angewiesen sind, minimiert werden. AWS DMS kann Ihre Daten zu und von den am häufigsten verwendeten kommerziellen und Open-Source-Datenbanken migrieren. 
+ [AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) konvertiert automatisch das Quelldatenbankschema und einen Großteil der Datenbankcodeobjekte, einschließlich Ansichten, gespeicherten Prozeduren und Funktionen, in ein Format, das mit der Zieldatenbank kompatibel ist. Objekte, die nicht automatisch konvertiert werden können, sind deutlich gekennzeichnet, sodass sie manuell konvertiert werden können, um die Migration abzuschließen. AWS SCT kann Ihren Anwendungsquellcode auch nach eingebetteten SQL-Anweisungen scannen und diese im Rahmen eines Datenbankschema-Konvertierungsprojekts konvertieren. Während dieses Prozesses führt AWS SCT eine Cloud-native Code-Optimierung durch, indem es ältere Oracle- und SQL Server-Funktionen in ihre AWS-Entsprechungen konvertiert, um Sie bei der Modernisierung Ihrer Anwendungen und der Migration Ihrer Datenbanken zu unterstützen. Wenn die Schemakonvertierung abgeschlossen ist, kann AWS SCT mithilfe integrierter Datenmigrationsagenten bei der Migration von Daten aus einer Reihe von Data Warehouses nach Amazon Redshift helfen.  

## Best Practices
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-materialized-views-and-aws-dms-best-practices"></a>

Bewährte Methoden für die Aktualisierung materialisierter Ansichten finden Sie in der folgenden Oracle-Dokumentation:
+ [Materialisierte Ansichten aktualisieren](https://docs.oracle.com/database/121/DWHSG/refresh.htm#DWHSG-GUID-64068234-BDB0-4C12-AE70-75571046A586)
+ [Schnelle Aktualisierung für materialisierte Ansichten](https://docs.oracle.com/database/121/DWHSG/refresh.htm#DWHSG8361)

## Epen
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-materialized-views-and-aws-dms-epics"></a>

### Installieren Sie Oracle auf einer EC2 Instanz und erstellen Sie materialisierte Ansichten
<a name="install-oracle-on-an-ec2-instance-and-create-materialized-views"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie das Netzwerk für die EC2 Instanz ein. | Erstellen Sie die Virtual Private Cloud (VPC), die Subnetze, das Internet-Gateway, die Routing-Tabellen und die Sicherheitsgruppen. | AWS SysAdmin | 
| Erstellen Sie die EC2 Instanz. | Wählen Sie das Amazon Machine Image (AMI) für die EC2 Instance aus. Wählen Sie die Instanzgröße und konfigurieren Sie die Instanzdetails: die Anzahl der Instanzen (1), die VPC und das Subnetz aus dem vorherigen Schritt, automatische Zuweisung öffentlicher IP-Adressen und andere Optionen. Fügen Sie Speicher hinzu, konfigurieren Sie Sicherheitsgruppen und starten Sie die Instance. Wenn Sie dazu aufgefordert werden, erstellen und speichern Sie ein key pair für den nächsten Schritt. | AWS SysAdmin | 
| Installieren Sie Oracle auf der EC2 Instanz. | Erwerben Sie die Lizenzen und die erforderlichen Oracle-Binärdateien und installieren Sie Oracle 10g oder 11g auf der Instance. EC2  | DBA | 
| Konfigurieren Sie das Oracle-Netzwerk. | Ändern oder fügen Sie Einträge hinzu`listener.ora`, um eine Verbindung zur lokalen Oracle 8i/9i-Quelldatenbank herzustellen, und erstellen Sie dann die Datenbank-Links. | DBA | 
| Erstellen Sie materialisierte Ansichten. | Identifizieren Sie die Datenbankobjekte, die in der Oracle 8i/9i-Quelldatenbank repliziert werden sollen, und erstellen Sie dann mithilfe des Datenbank-Links materialisierte Ansichten für alle Objekte. | DBA | 
| Stellen Sie Skripts bereit, um materialisierte Ansichten in den erforderlichen Intervallen zu aktualisieren. | Entwickeln und implementieren Sie Skripts, um materialisierte Ansichten in den erforderlichen Intervallen auf der Amazon EC2 Oracle 10g/11g-Instance zu aktualisieren. Verwenden Sie die Option „Inkrementelle Aktualisierung“, um Materialized Views zu aktualisieren. | DBA | 

### Das Oracle-Datenbankschema nach PostgreSQL konvertieren
<a name="convert-the-oracle-database-schema-to-postgresql"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie AWS SCT ein. | Erstellen Sie einen neuen Bericht und stellen Sie dann eine Verbindung zu Oracle als Quelle und PostgreSQL als Ziel her. Öffnen Sie in den Projekteinstellungen die Registerkarte **SQL Scripting**. Ändern Sie das Ziel-SQL-Skript in **Mehrere Dateien**. (AWS SCT unterstützt keine Oracle 8i/9i-Datenbanken, daher müssen Sie den reinen Schema-Dump auf der Oracle 10g/11g-Zwischeninstanz wiederherstellen und ihn als Quelle für AWS SCT verwenden.) | DBA | 
| Konvertiert das Oracle-Datenbankschema. | Wählen Sie auf der Registerkarte **Aktion** die Optionen **Bericht generieren**, **Schema konvertieren** und dann **Als SQL speichern** aus. | DBA | 
| Ändern Sie die SQL-Skripten. | Nehmen Sie Änderungen auf der Grundlage bewährter Methoden vor. Wechseln Sie beispielsweise zu geeigneten Datentypen und entwickeln Sie PostgreSQL-Äquivalente für Oracle-spezifische Funktionen. | DBA, DevDBA | 

### Erstellen und konfigurieren Sie die Amazon RDS-DB-Instance zum Hosten der konvertierten Datenbank
<a name="create-and-configure-the-amazon-rds-db-instance-to-host-the-converted-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Amazon RDS-DB-Instance. | Erstellen Sie in der Amazon RDS-Konsole eine neue PostgreSQL-DB-Instance. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die DB-Instance. | Geben Sie die DB-Engine-Version, die DB-Instance-Klasse, die Multi-AZ-Bereitstellung, den Speichertyp und den zugewiesenen Speicher an. Geben Sie die DB-Instance-ID, einen Master-Benutzernamen und ein Master-Passwort ein. | AWS SysAdmin, DBA | 
| Konfigurieren Sie Netzwerk und Sicherheit. | Geben Sie die VPC, die Subnetzgruppe, den öffentlichen Zugriff, die Availability Zone-Präferenz und die Sicherheitsgruppen an. | DBA, SysAdmin | 
| Datenbankoptionen konfigurieren. | Geben Sie den Datenbanknamen, den Port, die Parametergruppe, die Verschlüsselung und den Hauptschlüssel an. | DBA, AWS SysAdmin | 
| Konfigurieren Sie die Sicherungen. | Geben Sie den Aufbewahrungszeitraum für Backups, das Backup-Fenster, die Startzeit und die Dauer an und ob Tags in Snapshots kopiert werden sollen. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Überwachungsoptionen. | Aktivieren oder deaktivieren Sie erweiterte Überwachungs- und Leistungseinblicke. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Wartungsoptionen. | Geben Sie das auto Upgrade der Nebenversion, das Wartungsfenster sowie den Starttag, die Uhrzeit und die Dauer an. | AWS SysAdmin, DBA | 
| Führen Sie die Skripts vor der Migration von AWS SCT aus. | Erstellen Sie auf der Amazon RDS for PostgreSQL PostgreSQL-Zielinstanz das Datenbankschema, indem Sie die SQL-Skripts von AWS SCT mit anderen Änderungen verwenden. Dazu können die Ausführung mehrerer Skripts gehören, einschließlich Benutzererstellung, Datenbankerstellung, Schemaerstellung, Tabellen, Ansichten, Funktionen und anderer Codeobjekte. | AWS SysAdmin, DBA | 

### Migrieren Sie Daten mithilfe von AWS DMS
<a name="migrate-data-by-using-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Replikationsinstanz in AWS DMS. | Füllen Sie die Felder für den Namen, die Instance-Klasse, die VPC (wie für die EC2 Instance), Multi-AZ und den öffentlichen Zugriff aus. Geben Sie im Abschnitt für die erweiterte Konfiguration den zugewiesenen Speicher, die Subnetzgruppe, die Availability Zone, die VPC-Sicherheitsgruppen und den AWS Key Management Service (AWS KMS) -Schlüssel an. | AWS SysAdmin, DBA | 
| Erstellen Sie den Endpunkt der Quelldatenbank. | Geben Sie den Endpunktnamen, den Typ, die Quell-Engine (Oracle), den Servernamen (den privaten DNS-Namen der EC2 Instanz), den Port, den SSL-Modus, den Benutzernamen, das Passwort, die SID, die VPC (geben Sie die VPC an, die die Replikationsinstanz hat) und die Replikationsinstanz an. Um die Verbindung zu testen, wählen Sie **Test ausführen** und erstellen Sie dann den Endpunkt. Sie können auch die folgenden erweiterten Einstellungen konfigurieren: **maxFileSize**und **numberDataTypeSkalieren**. | AWS SysAdmin, DBA | 
| Connect AWS DMS mit Amazon RDS for PostgreSQL. | Erstellen Sie eine Migrationssicherheitsgruppe für Verbindungen zwischen VPCs, falls sich Ihre PostgreSQL-Datenbank in einer anderen VPC befindet. | AWS SysAdmin, DBA | 
| Erstellen Sie den Zieldatenbank-Endpunkt. | Geben Sie den Endpunktnamen, den Typ, die Quell-Engine (PostgreSQL), den Servernamen (Amazon RDS-Endpunkt), den Port, den SSL-Modus, den Benutzernamen, das Passwort, den Datenbanknamen, die VPC (geben Sie die VPC an, die die Replikationsinstanz hat) und die Replikationsinstanz an. Um die Verbindung zu testen, wählen Sie **Test ausführen** und erstellen Sie dann den Endpunkt. Sie können auch die folgenden erweiterten Einstellungen konfigurieren: **maxFileSize**und **numberDataTypeSkalieren**. | AWS SysAdmin, DBA | 
| Erstellen Sie die AWS DMS-Replikationsaufgabe. | Geben Sie den Namen der Aufgabe, die Replikationsinstanz, die Quell- und Zielendpunkte sowie die Replikationsinstanz an. Wählen Sie als Migrationstyp die Option **Bestehende Daten migrieren und laufende Änderungen replizieren aus**. Deaktivieren **Sie das Kontrollkästchen Aufgabe bei Erstellung starten**. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Einstellungen für die AWS DMS-Replikationsaufgabe. | Wählen Sie für den Modus zur Vorbereitung der Zieltabelle die Option **Nichts tun** aus. Beenden Sie die Aufgabe, nachdem der vollständige Ladevorgang abgeschlossen ist (um Primärschlüssel zu erstellen). Geben Sie den eingeschränkten oder vollständigen LOB-Modus an und aktivieren Sie Steuertabellen. Optional können Sie die **CommitRate**erweiterte Einstellung konfigurieren. | DBA | 
| Konfigurieren Sie die Tabellenzuordnungen. | Erstellen Sie im Abschnitt **Tabellenzuordnungen** eine Einschlussregel für alle Tabellen in allen Schemas, die in der Migration enthalten sind, und erstellen Sie dann eine Ausschlussregel. Fügen Sie drei Transformationsregeln hinzu, um die Schema-, Tabellen- und Spaltennamen in Kleinbuchstaben umzuwandeln, und fügen Sie alle anderen Regeln hinzu, die Sie für diese spezielle Migration benötigen. | DBA | 
| Starten Sie die -Aufgabe. | Starten Sie die Replikationsaufgabe. Stellen Sie sicher, dass die Volllast läuft. Führen Sie es `ALTER SYSTEM SWITCH LOGFILE` in der primären Oracle-Datenbank aus, um die Aufgabe zu starten. | DBA | 
| Führen Sie die Skripts während der Migration von AWS SCT aus. | Führen Sie in Amazon RDS for PostgreSQL die folgenden Skripts aus: `create_index.sql` und `create_constraint.sql` (falls das vollständige Schema nicht ursprünglich erstellt wurde). | DBA | 
| Setzen Sie die Aufgabe fort, um mit der Erfassung von Änderungsdaten (CDC) fortzufahren. | Führen Sie die Ausführung `VACUUM` auf der Amazon RDS for PostgreSQL PostgreSQL-DB-Instance aus und starten Sie die AWS-DMS-Aufgabe neu, um zwischengespeicherte CDC-Änderungen anzuwenden. | DBA | 

### Wechseln Sie zur PostgreSQL-Datenbank
<a name="cut-over-to-the-postgresql-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die AWS DMS-Protokolle und Validierungstabellen. | Überprüfen und beheben Sie alle Replikations- oder Validierungsfehler. | DBA | 
| Beenden Sie die Verwendung der lokalen Oracle-Datenbank und ihrer Abhängigkeiten. | Beenden Sie alle Oracle-Abhängigkeiten, fahren Sie die Listener in der Oracle-Datenbank herunter und führen Sie den Vorgang aus. `ALTER SYSTEM SWITCH LOGFILE` Beenden Sie die AWS DMS-Aufgabe, wenn keine Aktivität angezeigt wird. | DBA | 
| Führen Sie die Skripts nach der Migration von AWS SCT aus. | Führen Sie in Amazon RDS for PostgreSQL die folgenden Skripts aus:. `create_foreign_key_constraint.sql and create_triggers.sql` Stellen Sie sicher, dass die Sequenzen auf dem neuesten Stand sind. | DBA | 
| Führen Sie zusätzliche Schritte von Amazon RDS for PostgreSQL aus. | Erhöhen Sie die Sequenzen bei Bedarf, sodass sie mit Oracle übereinstimmen, führen Sie den Vorgang aus `VACUUM` und `ANALYZE` erstellen Sie aus Compliance-Gründen einen Snapshot. | DBA | 
| Öffnen Sie die Verbindungen zu Amazon RDS for PostgreSQL. | Entfernen Sie die AWS DMS-Sicherheitsgruppen aus Amazon RDS for PostgreSQL, fügen Sie Produktionssicherheitsgruppen hinzu und verweisen Sie Ihre Anwendungen auf die neue Datenbank. | DBA | 
| Bereinigen Sie die AWS DMS-Objekte. | Entfernen Sie die Endgeräte, Replikationsaufgaben, Replikationsinstanzen und die EC2 Instanz. | SysAdmin, DBA | 

## Zugehörige Ressourcen
<a name="migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-materialized-views-and-aws-dms-resources"></a>
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html)
+ [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ [Preise für Amazon RDS for PostgreSQL](https://aws.amazon.com/rds/postgresql/pricing/)
+ [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ [Verwenden einer PostgreSQL-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html)

# Migrieren Sie mithilfe von AWS DMS und AWS SCT von Oracle auf Amazon EC2 zu Amazon RDS for MySQL
<a name="migrate-from-oracle-on-amazon-ec2-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct"></a>

*Anil Kunapareddy, Amazon Web Services*

*Harshad Gohil, keiner*

## Zusammenfassung
<a name="migrate-from-oracle-on-amazon-ec2-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-summary"></a>

Die Verwaltung von Oracle-Datenbanken auf Amazon Elastic Compute Cloud (Amazon EC2) -Instances erfordert Ressourcen und kann kostspielig sein. Das Verschieben dieser Datenbanken in eine Amazon Relational Database Service (Amazon RDS) für MySQL-DB-Instance erleichtert Ihnen die Arbeit, da das gesamte IT-Budget optimiert wird. Amazon RDS for MySQL bietet auch Funktionen wie Multi-AZ, Skalierbarkeit und automatische Backups. 

Dieses Muster führt Sie durch die Migration einer Oracle-Quelldatenbank auf Amazon EC2 zu einer Amazon RDS for MySQL MySQL-DB-Zielinstanz. Es verwendet AWS Database Migration Service (AWS DMS), um die Daten zu migrieren, und das AWS Schema Conversion Tool (AWS SCT), um das Quelldatenbankschema und die Objekte in ein Format zu konvertieren, das mit Amazon RDS for MySQL kompatibel ist. 

## Voraussetzungen und Einschränkungen
<a name="migrate-from-oracle-on-amazon-ec2-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Quelldatenbank, in der Instance- und Listener-Services im ARCHIVELOG-Modus ausgeführt werden
+ Eine Amazon RDS for MySQL MySQL-Zieldatenbank mit ausreichend Speicherplatz für die Datenmigration

**Einschränkungen**
+ AWS DMS erstellt kein Schema in der Zieldatenbank; das müssen Sie tun. Der Schemaname muss für das Ziel bereits vorhanden sein. Tabellen aus dem Quellschema werden in den Benutzer/das Schema importiert, das AWS DMS verwendet, um eine Verbindung mit der Zielinstanz herzustellen. Zum Migrieren von mehreren Schemata müssen Sie mehrere Replikationsaufgaben erstellen. 

**Produktversionen**
+ Alle Oracle-Datenbankeditionen für die Versionen 10.2 und höher, 11g und bis zu 12.2 und 18c. Die aktuelle Liste der unterstützten Versionen finden Sie unter [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) und [Verwenden einer MySQL-kompatiblen Datenbank als Ziel](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.MySQL.html) für AWS DMS. Wir empfehlen Ihnen, die neueste Version von AWS DMS zu verwenden, um die umfassendste Version von Versionen und Funktionen zu erhalten. Informationen zu den von AWS SCT unterstützten Oracle-Datenbankversionen finden Sie in der [AWS SCT-Dokumentation.](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ AWS DMS unterstützt die Versionen 5.5, 5.6 und 5.7 von MySQL. 

## Architektur
<a name="migrate-from-oracle-on-amazon-ec2-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-architecture"></a>

**Quelltechnologie-Stack**
+ Eine Oracle-Datenbank auf einer EC2-Instance  

**Zieltechnologie-Stack**
+ Amazon RDS for MySQL MySQL-DB-Instance

**Architektur der Datenmigration**

![\[Verwenden von AWS DMS für die Migration von Oracle auf Amazon EC2 zu Amazon RDS for MySQL\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/8a8e346e-7944-4999-bc11-208efead3792/images/c00f908c-f348-41dd-a31c-3931b990777a.png)


**Quell- und Zielarchitektur**

![\[Verwenden von AWS DMS und AWS SCT für die Migration von Oracle auf Amazon EC2 zu Amazon RDS for MySQL\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/8a8e346e-7944-4999-bc11-208efead3792/images/e7ba7ac0-3094-4142-b355-fb192e242432.png)


## Tools
<a name="migrate-from-oracle-on-amazon-ec2-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-tools"></a>
+ **AWS DMS** — [AWS Database Migration Service](https://docs.aws.amazon.com/dms/) (AWS DMS) ist ein Webservice, mit dem Sie Daten aus Ihrer lokalen Datenbank, auf einer Amazon RDS-DB-Instance oder in einer Datenbank auf einer EC2-Instance in eine Datenbank in einem AWS-Service wie Amazon RDS for MySQL oder einer EC2-Instance migrieren können. Sie können eine Datenbank auch von einem AWS-Service zu einer lokalen Datenbank migrieren. Sie können Daten zwischen heterogenen oder homogenen Datenbank-Engines migrieren.
+ **AWS SCT** — Das [AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) (AWS SCT) macht heterogene Datenbankmigrationen vorhersehbar, indem das Quelldatenbankschema und ein Großteil der Datenbankcode-Objekte, einschließlich Ansichten, gespeicherten Prozeduren und Funktionen, automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist. Nachdem Sie Ihr Datenbankschema und Ihre Codeobjekte mit AWS SCT konvertiert haben, können Sie AWS DMS verwenden, um Daten von der Quelldatenbank in die Zieldatenbank zu migrieren, um Ihre Migrationsprojekte abzuschließen.

## Epen
<a name="migrate-from-oracle-on-amazon-ec2-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie die Versionen und Engines der Quell- und Zieldatenbank. |  | DBA/Entwickler | 
| Identifizieren Sie die DMS-Replikationsinstanz. |  | DBA/Entwickler | 
| Identifizieren Sie Speicheranforderungen wie Speichertyp und Kapazität. |  | DBA/Entwickler | 
| Identifizieren Sie Netzwerkanforderungen wie Latenz und Bandbreite. |  |  DBA/Entwickler | 
| Identifizieren Sie die Hardwareanforderungen für die Quell- und Zielserverinstanzen (basierend auf der Oracle-Kompatibilitätsliste und den Kapazitätsanforderungen). |  | DBA/Entwickler | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für Quell- und Zieldatenbanken. |  | DBA/Entwickler | 
| Installieren Sie die Treiber AWS SCT und Oracle. |  | DBA/Entwickler | 
| Legen Sie eine Backup-Strategie fest. |  | DBA/Entwickler | 
| Ermitteln Sie die Verfügbarkeitsanforderungen. |  | DBA/Entwickler | 
| Identifizieren Sie die Strategie für Anwendungsmigration und Umstellung. |  | DBA/Entwickler | 
| Wählen Sie den richtigen DB-Instance-Typ auf der Grundlage von Kapazität, Speicher und Netzwerkfunktionen aus. |  | DBA/Entwickler | 

### Konfigurieren Sie die Umgebung
<a name="configure-the-environment"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer Virtual Private Cloud (VPC). Die Quell-, Ziel- und Replikationsinstanz sollten sich in derselben VPC befinden. Es ist auch gut, diese in derselben Availability Zone zu haben. |  | Developer | 
| Erstellen Sie die erforderlichen Sicherheitsgruppen für den Datenbankzugriff. |  |  Developer | 
| Generieren und konfigurieren Sie ein key pair. |  | Developer | 
| Konfigurieren Sie Subnetze, Availability Zones und CIDR-Blöcke. |  | Developer | 

### Konfigurieren Sie die Quelle: Oracle-Datenbank auf der EC2-Instance
<a name="configure-the-source-oracle-database-on-ec2-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie Oracle Database auf Amazon EC2 mit den erforderlichen Benutzern und Rollen. |  | DBA | 
|  Führen Sie die drei Schritte in der nächsten Spalte aus, um von außerhalb der EC2-Instance auf Oracle zuzugreifen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-oracle-on-amazon-ec2-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct.html) | DBA | 
| Wenn Amazon EC2 neu gestartet wird, ändert sich das öffentliche DNS. Stellen Sie sicher, dass Sie das öffentliche DNS von Amazon EC2 in „tnsnames“ und „listener“ aktualisieren oder eine Elastic IP-Adresse verwenden. |  | DBA/Entwickler | 
| Konfigurieren Sie die EC2-Instanz-Sicherheitsgruppe so, dass die Replikationsinstanz und die erforderlichen Clients auf die Quelldatenbank zugreifen können. |  | DBA/Entwickler | 

### Konfigurieren Sie das Ziel: Amazon RDS for MySQL
<a name="configure-the-target-amazon-rds-for-mysql"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren und starten Sie die Amazon RDS for MySQL MySQL-DB-Instance. |  | Developer | 
| Erstellen Sie den erforderlichen Tablespace in der Amazon RDS for MySQL MySQL-DB-Instance. |  | DBA | 
| Konfigurieren Sie die Sicherheitsgruppe so, dass die Replikationsinstanz und die erforderlichen Clients auf die Zieldatenbank zugreifen können. |  | Developer | 

### AWS SCT konfigurieren und ein Schema in der Zieldatenbank erstellen
<a name="configure-aws-sct-and-create-a-schema-in-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie die Treiber AWS SCT und Oracle. |  | Developer | 
| Geben Sie die entsprechenden Parameter ein und stellen Sie eine Verbindung zur Quelle und zum Ziel her. |  | Developer | 
| Generieren Sie einen Bericht zur Schemakonvertierung. |  | Developer | 
| Korrigieren Sie den Code und das Schema nach Bedarf, insbesondere Tablespaces und Anführungszeichen, und führen Sie die Ausführung in der Zieldatenbank aus. |  |  Developer | 
| Überprüfen Sie das Schema auf Quelle und Ziel, bevor Sie Daten migrieren. |  | Developer | 

### Migrieren Sie Daten mit AWS DMS
<a name="migrate-data-using-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Für Full-Load and Change Data Capture (CDC) oder nur CDC müssen Sie ein zusätzliches Verbindungsattribut festlegen. |  | Developer | 
| Dem in den Definitionen der AWS-DMS-Oracle-Quelldatenbank angegebenen Benutzer müssen alle erforderlichen Rechte gewährt werden. Eine vollständige Liste finden Sie unter https://docs.aws.amazon.com/dms/ latest/userguide/CHAP \$1source.oracle.html \$1CHAP\$1Source .Oracle.Self-Managed. |  | DBA/Entwickler | 
| Aktivieren Sie die zusätzliche Protokollierung in der Quelldatenbank. |  | DBA/Entwickler | 
| Für Full-Load and Change Data Capture (CDC) oder nur CDC aktivieren Sie den ARCHIVELOG-Modus in der Quelldatenbank. |  | DBA | 
| Erstellen Sie Quell- und Zielendpunkte und testen Sie die Verbindungen. |  | Developer | 
| Wenn die Endpunkte erfolgreich verbunden wurden, erstellen Sie eine Replizierungsaufgabe. |  | Developer | 
| Wählen Sie in der Aufgabe nur CDC (oder) Volllast plus CDC aus, um Änderungen nur für die kontinuierliche Replikation zu erfassen (oder) Volllast plus laufende Änderungen. |  | Developer | 
| Führen Sie die Replikationsaufgabe aus und überwachen Sie die CloudWatch Amazon-Protokolle. |  |  Developer | 
| Validieren Sie die Daten in den Quell- und Zieldatenbanken. |  | Developer | 

### Migrieren Sie Ihre Anwendung und schneiden Sie ab
<a name="migrate-your-application-and-cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie den Schritten für Ihre Strategie zur Anwendungsmigration. |  | DBA, Entwickler, App-Besitzer | 
| Folgen Sie den Schritten für Ihre Strategie zur Umstellung und Umstellung von Anwendungen. |  | DBA, Entwickler, App-Besitzer | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie das Schema und die Daten in Quell- und Zieldatenbanken. |  | DBA/Entwickler | 
| Erfassen Sie Kennzahlen zum Zeitpunkt der Migration, zum prozentualen Anteil manueller Änderungen im Vergleich zu Tools, zu Kosteneinsparungen usw. |  |  DBA/Developer/AppOwner | 
| Überprüfen Sie die Projektdokumente und Artefakte. |  | DBA/Developer/AppOwner | 
| Fahren Sie temporäre AWS-Ressourcen herunter. |  | DBA/Entwickler | 
| Schließen Sie das Projekt ab und geben Sie Feedback. |  | DBA/Developer/AppOwner | 

## Zugehörige Ressourcen
<a name="migrate-from-oracle-on-amazon-ec2-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-resources"></a>
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) 
+ [AWS DMS-Webseite](https://aws.amazon.com/dms/)
+ [AWS DMS-Blogbeiträge](https://aws.amazon.com/blogs/database/tag/dms/) 
+ [Strategien für die Migration von Oracle Database in AWS](https://d1.awsstatic.com/whitepapers/strategies-for-migrating-oracle-database-to-aws.pdf) 
+ [Amazon RDS für Oracle FAQs](https://aws.amazon.com/rds/oracle/faqs/) 
+ [Häufig gestellte Fragen zu Oracle](https://aws.amazon.com/oracle/faq/) 
+ [Amazon EC2](https://aws.amazon.com/ec2/) 
+ [Amazon EC2 FAQs](https://aws.amazon.com/ec2/faqs/)
+ [Lizenzierung von Oracle-Software in der Cloud-Computing-Umgebung](http://www.oracle.com/us/corporate/pricing/cloud-licensing-070579.pdf)

# Migrieren Sie mithilfe von AWS DMS und AWS SCT eine Oracle-Datenbank von Amazon EC2 zu Amazon RDS for MariaDB
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-mariadb-using-aws-dms-and-aws-sct"></a>

*Veeranjaneyulu Grandhi und Vinod Kumar, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-mariadb-using-aws-dms-and-aws-sct-summary"></a>

Dieses Muster führt Sie durch die Schritte zur Migration einer Oracle-Datenbank auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance zu einer Amazon Relational Database Service (Amazon RDS) für MariaDB-DB-Instance. Das Muster verwendet AWS Data Migration Service (AWS DMS) für die Datenmigration und das AWS Schema Conversion Tool (AWS SCT) für die Schemakonvertierung. 

Die Verwaltung von Oracle-Datenbanken auf EC2 Instances erfordert mehr Ressourcen und ist kostspieliger als die Verwendung einer Datenbank auf Amazon RDS. Amazon RDS macht es einfach, eine relationale Datenbank in der Cloud einzurichten, zu betreiben und zu skalieren. Amazon RDS bietet kosteneffiziente und anpassbare Kapazität und automatisiert gleichzeitig zeitaufwändige Verwaltungsaufgaben wie Hardwarebereitstellung, Datenbankeinrichtung, Patching und Backups.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-mariadb-using-aws-dms-and-aws-sct-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto.
+ Eine Oracle-Quelldatenbank mit laufenden Instance- und Listener-Services. Diese Datenbank sollte sich im ARCHIVELOG-Modus befinden.
+ Vertrautheit mit [der Verwendung einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html).
+ Vertrautheit mit [der Verwendung von Oracle als Quelle für AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.html).

**Einschränkungen**
+ Größenbeschränkung der Datenbank: 64 TB 

**Produktversionen**
+ Alle Oracle-Datenbankeditionen für die Versionen 10.2 und höher, 11g und bis zu 12.2 und 18c. Die aktuelle Liste der unterstützten Versionen finden Sie unter [Using an Oracle Database as a Source for AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) und in der [AWS SCT-Versionstabelle](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) in der AWS-Dokumentation.
+ Amazon RDS unterstützt die MariaDB Server Community Server-Versionen 10.3, 10.4, 10.5 und 10.6. Die aktuelle Liste der unterstützten Versionen finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_MariaDB.html).

## Architektur
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-mariadb-using-aws-dms-and-aws-sct-architecture"></a>

**Quelltechnologie-Stack**
+ Eine Oracle-Datenbank auf einer EC2 Instanz

**Zieltechnologie-Stack**
+ Amazon RDS für MariaDB

**Architektur der Datenmigration**

![\[Verwendung von AWS DMS für die Migration.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/0b4269c6-8ea3-4672-ad14-1ffac1dc14f3/images/ed191145-e5c2-4d61-8827-31f081450c03.png)


**Zielarchitektur**

![\[Verwendung von AWS SCT für die Migration.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/0b4269c6-8ea3-4672-ad14-1ffac1dc14f3/images/0171f548-37dd-4110-851c-7e74dfff3732.png)


## Tools
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-mariadb-using-aws-dms-and-aws-sct-tools"></a>
+ Das [AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) (AWS SCT) macht heterogene Datenbankmigrationen vorhersehbar, indem das Quelldatenbankschema und ein Großteil der Datenbankcodeobjekte — einschließlich Ansichten, gespeicherten Prozeduren und Funktionen — automatisch in ein mit der Zieldatenbank kompatibles Format konvertiert werden. Nachdem Sie Ihr Datenbankschema und Ihre Codeobjekte mit AWS SCT konvertiert haben, können Sie AWS DMS verwenden, um Daten von der Quelldatenbank in die Zieldatenbank zu migrieren, um Ihre Migrationsprojekte abzuschließen. Weitere Informationen finden Sie unter [Verwenden von Oracle als Quelle für AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.html) in der AWS SCT-Dokumentation.
+ Mit dem [AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) (AWS DMS) können Sie Datenbanken schnell und sicher zu AWS migrieren. Die Quelldatenbank bleibt während der Migration voll funktionsfähig, wodurch die Ausfallzeiten von Anwendungen, die auf die Datenbank angewiesen sind, minimiert werden. AWS DMS kann Ihre Daten zu und von den am häufigsten verwendeten kommerziellen und Open-Source-Datenbanken migrieren. AWS DMS unterstützt homogene Migrationen wie Oracle zu Oracle sowie heterogene Migrationen zwischen verschiedenen Datenbankplattformen wie Oracle oder Microsoft SQL Server zu Amazon Aurora. Weitere Informationen zur Migration von Oracle-Datenbanken finden Sie unter [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) in der AWS DMS-Dokumentation.

## Epen
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-mariadb-using-aws-dms-and-aws-sct-epics"></a>

### Planen Sie die Migration
<a name="plan-for-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie Versionen und Datenbank-Engines. | Identifizieren Sie die Versionen und Engines der Quell- und Zieldatenbank. | DBA, Entwickler | 
| Identifizieren Sie die Replikationsinstanz. | Identifizieren Sie die AWS DMS-Replikationsinstanz. | DBA, Entwickler | 
| Identifizieren Sie die Speicheranforderungen. | Identifizieren Sie den Speichertyp und die Kapazität. | DBA, Entwickler | 
| Identifizieren Sie die Netzwerkanforderungen. | Identifizieren Sie die Netzwerklatenz und Bandbreite. | DBA, Entwickler | 
| Identifizieren Sie die Hardwareanforderungen. | Identifizieren Sie die Hardwareanforderungen für die Quell- und Zielserverinstanzen (basierend auf der Oracle-Kompatibilitätsliste und den Kapazitätsanforderungen). | DBA, Entwickler | 
| Identifizieren Sie die Sicherheitsanforderungen. | Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken. | DBA, Entwickler | 
| Installieren Sie die Treiber. | Installieren Sie die neuesten AWS SCT- und Oracle-Treiber. | DBA, Entwickler | 
| Legen Sie eine Backup-Strategie fest. |  | DBA, Entwickler | 
| Ermitteln Sie die Verfügbarkeitsanforderungen. |  | DBA, Entwickler | 
| Wählen Sie eine migration/switchover Anwendungsstrategie. |  | DBA, Entwickler | 
| Wählen Sie den -Instance-Typ aus. | Wählen Sie den richtigen Instanztyp auf der Grundlage von Kapazität, Speicher und Netzwerkfunktionen aus. | DBA, Entwickler | 

### Konfigurieren Sie die Umgebung
<a name="configure-the-environment"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer Virtual Private Cloud (VPC).  | Die Quell-, Ziel- und Replikationsinstanzen sollten sich in derselben VPC und in derselben Availability Zone befinden (empfohlen). | Developer | 
| Erstellen Sie Sicherheitsgruppen. | Erstellen Sie die erforderlichen Sicherheitsgruppen für den Datenbankzugriff. | Developer | 
| Erzeugen Sie ein Schlüsselpaar. | Generieren und konfigurieren Sie ein key pair. | Developer | 
| Konfigurieren Sie andere Ressourcen. | Konfigurieren Sie Subnetze, Availability Zones und CIDR-Blöcke. | Developer | 

### Konfigurieren Sie die Quelle
<a name="configure-the-source"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Starten Sie die EC2 Instanz. | Anweisungen finden Sie in der [ EC2 Amazon-Dokumentation](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/LaunchingAndUsingInstances.html). | Developer | 
| Installieren Sie die Oracle-Datenbank. | Installieren Sie die Oracle-Datenbank auf der EC2 Instanz mit den erforderlichen Benutzern und Rollen. | DBA | 
| Folgen Sie den Schritten in der Aufgabenbeschreibung, um von außerhalb der EC2 Instanz auf Oracle zuzugreifen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-mariadb-using-aws-dms-and-aws-sct.html) | DBA | 
| Aktualisieren Sie das EC2 öffentliche DNS von Amazon. | Nach dem Neustart der EC2 Instance ändert sich das öffentliche DNS. Stellen Sie sicher, dass Sie das EC2 öffentliche DNS von Amazon in `tnsnames` und aktualisieren`listener`, oder verwenden Sie eine Elastic IP-Adresse. | DBA, Entwickler | 
| Konfigurieren Sie die EC2 Instanz-Sicherheitsgruppe. | Konfigurieren Sie die EC2 Instanz-Sicherheitsgruppe so, dass die Replikationsinstanz und die erforderlichen Clients auf die Quelldatenbank zugreifen können. | DBA, Entwickler | 

### Konfiguration der Amazon RDS for MariaDB MariaDB-Zielumgebung
<a name="configure-the-target-amazon-rds-for-mariadb-environment"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Starten Sie die RDS-DB-Instance. | Konfigurieren und starten Sie die Amazon RDS for MariaDB-DB-Instance. | Developer | 
| Erstellen Sie Tablespaces. | Erstellen Sie alle erforderlichen Tablespaces in der Amazon RDS MariaDB-Datenbank. | DBA | 
| Konfigurieren Sie eine Sicherheitsgruppe. | Konfigurieren Sie eine Sicherheitsgruppe, sodass die Replikationsinstanz und die erforderlichen Clients auf die Zieldatenbank zugreifen können. | Developer | 

### AWS SCT konfigurieren
<a name="configure-aws-sct"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie die Treiber. | Installieren Sie die neuesten AWS SCT- und Oracle-Treiber. | Developer | 
| Connect (Verbinden). | Geben Sie die entsprechenden Parameter ein und stellen Sie dann eine Verbindung zur Quelle und zum Ziel her. | Developer | 
| Generieren Sie einen Bericht zur Schemakonvertierung. | Generieren Sie einen Bericht zur AWS-SCT-Schemakonvertierung. | Developer | 
| Korrigieren Sie den Code und das Schema nach Bedarf. | Nehmen Sie alle erforderlichen Korrekturen am Code und am Schema vor (insbesondere an Tablespaces und Anführungszeichen). | DBA, Entwickler | 
| Validieren Sie das Schema. | Überprüfen Sie das Schema auf der Quelle und auf dem Ziel, bevor Sie Daten laden. | Developer | 

### Migrieren Sie Daten mit AWS DMS
<a name="migrate-data-using-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Legen Sie ein Verbindungsattribut fest. | Legen Sie für Volllast und Change Data Capture (CDC) oder nur für CDC ein zusätzliches Verbindungsattribut fest. Weitere Informationen finden Sie in der [Dokumentation zu Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_MariaDB.html). | Developer | 
| Aktivieren Sie die zusätzliche Protokollierung. | Aktivieren Sie die zusätzliche Protokollierung in der Quelldatenbank. | DBA, Entwickler | 
| Aktivieren Sie den Archiv-Protokollmodus. | Für Volllast und CDC (oder nur für CDC) aktivieren Sie den Archiv-Log-Modus in der Quelldatenbank. | DBA | 
| Endpunkte erstellen und testen. | Erstellen Sie Quell- und Zielendpunkte und testen Sie die Verbindungen. Weitere Informationen finden Sie in der [Amazon DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Endpoints.Creating.html). | Developer | 
| Erstellen Sie eine Replikationsaufgabe. | Wenn die Endpoints erfolgreich verbunden wurden, erstellen Sie eine Replizierungsaufgabe. Weitere Informationen finden Sie in der [Amazon DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Task.CDC.html). | Developer | 
| Wählen Sie den Replikationstyp. | Wählen Sie in der Aufgabe **nur CDC** oder **Volllast plus CDC** aus, um Änderungen nur für die kontinuierliche Replikation bzw. für Volllast und laufende Änderungen zu erfassen. | Developer | 
| Starten und überwachen Sie die Aufgabe. | Starten Sie die Replikationsaufgabe und überwachen Sie die CloudWatch Amazon-Protokolle. Weitere Informationen finden Sie in der [Amazon DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Monitoring.html). | Developer | 
| Überprüfen Sie die Daten. | Validieren Sie die Daten in den Quell- und Zieldatenbanken. | Developer | 

### Migrieren Sie Anwendungen und wechseln Sie zur Zieldatenbank
<a name="migrate-applications-and-cut-over-to-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der ausgewählten Strategie zur Anwendungsmigration. |  | DBA, App-Besitzer, Entwickler | 
| Folgen Sie der gewählten cutover/switchover Anwendungsstrategie. |  | DBA, App-Besitzer, Entwickler | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie das Schema und die Daten. | Stellen Sie vor Abschluss des Projekts sicher, dass das Schema und die Daten in der Quelle und im Ziel erfolgreich validiert wurden. | DBA, Entwickler | 
| Sammeln Sie Metriken. | Erfassen Sie Kennzahlen zur Zeit bis zur Migration, zum Prozentsatz manueller Aufgaben im Vergleich zu Toolaufgaben, zu Kosteneinsparungen und ähnlichen Kriterien. | DBA, App-Besitzer, Entwickler | 
| Lesen Sie die Dokumentation. | Überprüfen Sie die Projektdokumente und Artefakte. | DBA, App-Besitzer, Entwickler | 
| Ressourcen herunterfahren. | Fahren Sie temporäre AWS-Ressourcen herunter. | DBA, Entwickler | 
| Schließen Sie das Projekt. | Schließen Sie das Migrationsprojekt und geben Sie Feedback. | DBA, App-Besitzer, Entwickler | 

## Zugehörige Ressourcen
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-mariadb-using-aws-dms-and-aws-sct-resources"></a>
+ [Überblick über MariaDB Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_MariaDB.html)
+ [Amazon RDS for MariaDB — Produktdetails](https://aws.amazon.com/rds/mariadb/features)
+ [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ [Strategien für die Migration von Oracle-Datenbanken zu AWS](https://docs.aws.amazon.com/whitepapers/latest/strategies-migrating-oracle-db-to-aws/strategies-migrating-oracle-db-to-aws.html)
+ [Lizenzierung von Oracle-Software in der Cloud-Computing-Umgebung](http://www.oracle.com/us/corporate/pricing/cloud-licensing-070579.pdf)
+ [Amazon RDS für Oracle FAQs](https://aws.amazon.com/rds/oracle/faqs/)
+ [Überblick über AWS DMS](https://aws.amazon.com/dms/)
+ [AWS DMS-Blogbeiträge](https://aws.amazon.com/blogs/database/tag/dms/)
+ [ EC2 Überblick über Amazon](https://aws.amazon.com/ec2/)
+ [Amazon EC2 FAQs](https://aws.amazon.com/ec2/faqs/)
+ [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)

# Migrieren Sie eine lokale Oracle-Datenbank mit AWS DMS und AWS SCT zu Amazon RDS for MySQL
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct"></a>

*Sergey Dmitriev und Naresh Damera, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-summary"></a>

Dieses Muster führt Sie durch die Migration einer lokalen Oracle-Datenbank zu einer Amazon Relational Database Service (Amazon RDS) für MySQL-DB-Instance. Es verwendet AWS Database Migration Service (AWS DMS), um die Daten zu migrieren, und das AWS Schema Conversion Tool (AWS SCT), um das Quelldatenbankschema und die Objekte in ein Format zu konvertieren, das mit Amazon RDS for MySQL kompatibel ist. 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-prerequisites-and-limitations"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Oracle-Quelldatenbank in einem lokalen Rechenzentrum 

**Einschränkungen**
+ Größenbeschränkung der Datenbank: 64 TB

**Produktversionen**
+ Alle Oracle-Datenbankeditionen für die Versionen 11g (Versionen 11.2.0.3.v1 und höher) und bis zu 12.2 und 18c. Die aktuelle Liste der unterstützten Versionen finden Sie unter [Using an Oracle Database as a Source for AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html). Wir empfehlen Ihnen, die neueste Version von AWS DMS zu verwenden, um die umfassendste Version von Versionen und Funktionen zu erhalten. Informationen zu den von AWS SCT unterstützten Oracle-Datenbankversionen finden Sie in der [AWS SCT-Dokumentation.](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) 
+ AWS DMS unterstützt derzeit die MySQL-Versionen 5.5, 5.6 und 5.7. Die aktuelle Liste der unterstützten Versionen finden Sie in der [AWS-Dokumentation unter Verwenden einer MySQL-kompatiblen Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.MySQL.html). 

## Architektur
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale Oracle-Datenbank

**Zieltechnologie-Stack**
+ Amazon RDS for MySQL MySQL-DB-Instance

**Architektur der Datenmigration**

![\[AWS Cloud architecture showing data migration from on-premises to RDS via VPC, Internet Gateway, and AWS DMS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/0385e5ad-a1ca-4c29-945b-592321d95f9d/images/c872e033-b13a-4436-b503-0632b5d437ae.png)


 

## Tools
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-tools"></a>
+ **AWS DMS** — [AWS Database Migration Services](https://docs.aws.amazon.com/dms/latest/userguide/) (AWS DMS) unterstützt Sie bei der Migration von relationalen Datenbanken, Data Warehouses, NoSQL-Datenbanken und anderen Arten von Datenspeichern. Sie können AWS DMS verwenden, um Ihre Daten in die AWS Cloud, zwischen lokalen Instances (über eine AWS Cloud-Einrichtung) oder zwischen Kombinationen aus Cloud und lokalen Einrichtungen zu migrieren.
+ **AWS SCT** — Das [AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) (AWS SCT) wird verwendet, um Ihr Datenbankschema von einer Datenbank-Engine in eine andere zu konvertieren. Der benutzerdefinierte Code, den das Tool konvertiert, umfasst Ansichten, gespeicherte Prozeduren und Funktionen. Jeder Code, den das Tool nicht automatisch konvertieren kann, ist deutlich gekennzeichnet, sodass Sie ihn selbst konvertieren können.

## Epen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie die Quell- und Zieldatenbankversion und die Engine. |  | DBA | 
|  Identifizieren Sie die Hardwareanforderungen für die Zielserverinstanz. |  | DBA, SysAdmin | 
| Identifizieren Sie die Speicheranforderungen (Speichertyp und Kapazität). |  | DBA, SysAdmin | 
| Wählen Sie den richtigen Instanztyp auf der Grundlage von Kapazität, Speicherfunktionen und Netzwerkfunktionen aus. |  | DBA, SysAdmin | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken. |  | DBA, SysAdmin  | 
| Identifizieren Sie die Strategie zur Anwendungsmigration. |  | DBA SysAdmin, Besitzer der App | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine virtuelle private Cloud (VPC) und Subnetze. |  | SysAdmin | 
| Erstellen Sie die Sicherheitsgruppen und Netzwerkzugriffskontrolllisten ()ACLs. |  | SysAdmin | 
| Konfigurieren und starten Sie eine Amazon RDS-DB-Instance. |  | DBA, SysAdmin | 

### Daten migrieren
<a name="migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie das Datenbankschema mithilfe von AWS SCT. |  | DBA | 
| Migrieren Sie Daten mithilfe von AWS DMS. |  | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwenden Sie AWS SCT, um den SQL-Code im Anwendungscode zu analysieren und zu konvertieren. | Weitere Informationen finden Sie unter https://docs.aws.amazon.com/SchemaConversionTool/ latest/userguide/CHAP \$1Converting.app.html. | Besitzer der App | 
| Folgen Sie der Strategie zur Anwendungsmigration. |  | DBA SysAdmin, Besitzer der App | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die Anwendungsclients auf die neue Infrastruktur um. |  | DBA SysAdmin, Besitzer der App | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie die temporären AWS-Ressourcen herunter. |  | DBA, SysAdmin | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA, SysAdmin | 
| Erfassen Sie Kennzahlen zum Zeitpunkt der Migration, zum prozentualen Anteil manueller Daten im Vergleich zu Tools, zu Kosteneinsparungen usw. |  | DBA, SysAdmin | 
| Schließen Sie das Projekt ab und geben Sie Feedback. |  |  | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct-related-resources"></a>

**Referenzen**
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/)
+ [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) 
+ [Amazon RDS — Preise](https://aws.amazon.com/rds/pricing/)

**Tutorial und Videos**
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)
+ [AWS DMS (Video)](https://www.youtube.com/watch?v=zb4GcjEdl8U) 
+ [Amazon RDS (Video)](https://www.youtube.com/watch?v=igRfulrrYCo) 

# Migrieren Sie eine lokale Oracle-Datenbank mithilfe eines Oracle-Bystanders und AWS DMS zu Amazon RDS for PostgreSQL
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms"></a>

*Cady Motyka, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms-summary"></a>

Dieses Muster beschreibt, wie Sie eine lokale Oracle-Datenbank mit minimalen Ausfallzeiten auf einen der folgenden PostgreSQL-kompatiblen AWS-Datenbankservices migrieren können:
+ Amazon Relational Database Service (Amazon RDS) für PostgreSQL
+ Amazon Aurora PostgreSQL-Compatible Edition

Die Lösung verwendet den AWS Database Migration Service (AWS DMS) für die Migration der Daten, das AWS Schema Conversion Tool (AWS SCT) für die Konvertierung des Datenbankschemas und eine Oracle-Bystander-Datenbank für die Verwaltung der Migration. Bei dieser Implementierung ist die Ausfallzeit darauf beschränkt, wie lange es dauert, alle Fremdschlüssel in der Datenbank zu erstellen oder zu validieren. 

Die Lösung verwendet auch Amazon Elastic Compute Cloud (Amazon EC2) -Instances mit einer Oracle-Bystander-Datenbank, um den Datenstrom über AWS DMS zu kontrollieren. Sie können die Streaming-Replikation von der lokalen Oracle-Datenbank zum Oracle-Bystander vorübergehend unterbrechen, um AWS DMS zu aktivieren, um die Datenvalidierung catch, oder um ein anderes Datenvalidierungstool zu verwenden. Die Amazon RDS for PostgreSQL PostgreSQL-DB-Instance oder die Aurora PostgreSQL-kompatible DB-Instance und die Bystander-Datenbank verfügen über dieselben Daten, wenn AWS DMS die Migration der aktuellen Änderungen abgeschlossen hat. 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Oracle-Quelldatenbank in einem lokalen Rechenzentrum mit konfigurierter Active Data Guard-Standby-Datenbank
+ AWS Direct Connect, konfiguriert zwischen dem lokalen Rechenzentrum und AWS Secrets Manager zum Speichern der Datenbankgeheimnisse
+ Java Database Connectivity (JDBC) -Treiber für AWS SCT-Konnektoren, installiert entweder auf einem lokalen Computer oder auf der EC2 Instance, auf der AWS SCT installiert ist
+ Vertrautheit mit [der Verwendung einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ Vertrautheit mit [der Verwendung einer PostgreSQL-Datenbank als Ziel](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html) für AWS DMS

**Einschränkungen**
+ Größenbeschränkung der Datenbank: 64 TB

**Produktversionen**
+ AWS DMS unterstützt alle Oracle-Datenbankeditionen für die Versionen 10.2 und höher (für Versionen 10.x), 11g und bis zu 12.2, 18c und 19c. Die aktuelle Liste der unterstützten Versionen finden Sie unter [Using an Oracle Database as a Source for AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html). Wir empfehlen Ihnen, die neueste Version von AWS DMS zu verwenden, um die umfassendste Version von Versionen und Funktionen zu erhalten. Informationen zu den von AWS SCT unterstützten Oracle-Datenbankversionen finden Sie in der [AWS SCT-Dokumentation.](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) 
+ AWS DMS unterstützt die PostgreSQL-Versionen 9.4 und höher (für die Versionen 9.x), 10.x, 11.x, 12.x und 13.x. Aktuelle Informationen finden Sie in der [AWS-Dokumentation unter Verwenden einer PostgreSQL-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html).

## Architektur
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ Eine lokale Oracle-Datenbank
+ Eine EC2 Instanz, die einen Zuschauer für die Oracle-Datenbank hält

**Zieltechnologie-Stack**
+ Amazon RDS for PostgreSQL- oder Aurora PostgreSQL-Instance, PostgreSQL 9.3 und höher

**Zielarchitektur**

Das folgende Diagramm zeigt einen Beispiel-Workflow für die Migration einer Oracle-Datenbank zu einer PostgreSQL-kompatiblen AWS-Datenbank mithilfe von AWS DMS und einem Oracle-Bystander:

![\[Migration einer lokalen Oracle-Datenbank zu PostgreSQL auf AWS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/6f5d5500-8b09-4bd1-8ef9-e670d58d07f8/images/1de98abd-c143-481a-b55f-e8d00eb96a38.png)


## Tools
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms-tools"></a>
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.
+ Das [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist.
+ [Amazon Relational Database Service (Amazon RDS)](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Datenbank in der AWS-Cloud.

## Epen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms-epics"></a>

### Das Oracle-Datenbankschema nach PostgreSQL konvertieren
<a name="convert-the-oracle-database-schema-to-postgresql"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie AWS SCT ein. | Erstellen Sie einen neuen Bericht und stellen Sie eine Verbindung zu Oracle als Quelle und PostgreSQL als Ziel her. Gehen Sie in **den Projekteinstellungen** zur Registerkarte **SQL Scripting**. Ändern Sie das **Ziel-SQL-Skript** in **mehrere Dateien**. Diese Dateien werden später verwendet und haben den folgenden Namen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms.html) | DBA | 
| Konvertiert das Oracle-Datenbankschema. | Wählen Sie auf der Registerkarte **Aktion** die Option **Bericht generieren** aus. Wählen Sie dann **Schema konvertieren** und dann **Als SQL speichern** aus. | DBA | 
| Ändern Sie die Skripts. | Möglicherweise möchten Sie das Skript ändern, wenn eine Zahl im Quellschema in PostgreSQL in ein numerisches Format konvertiert wurde, aber Sie möchten stattdessen **BIGINT** verwenden, um die Leistung zu verbessern. | DBA | 

### Erstellen und konfigurieren Sie die Amazon RDS-DB-Instance
<a name="create-and-configure-the-amazon-rds-db-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Amazon RDS-DB-Instance. | Erstellen Sie in der richtigen AWS-Region eine neue PostgreSQL-DB-Instance. Weitere Informationen finden Sie unter [Erstellen einer PostgreSQL-DB-Instance und Herstellen einer Verbindung zu einer Datenbank auf einer PostgreSQL-DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_GettingStarted.CreatingConnecting.PostgreSQL.html) in der Amazon RDS-Dokumentation. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Spezifikationen der DB-Instance. | Geben Sie die DB-Engine-Version, die DB-Instance-Klasse, die Multi-AZ-Bereitstellung, den Speichertyp und den zugewiesenen Speicher an. Geben Sie die DB-Instance-ID, einen primären Benutzernamen und ein primäres Passwort ein. | AWS SysAdmin, DBA | 
| Konfigurieren Sie Netzwerk und Sicherheit. | Geben Sie die Virtual Private Cloud (VPC), die Subnetzgruppe, den öffentlichen Zugriff, die Availability Zone-Präferenz und die Sicherheitsgruppen an. | DBA, SysAdmin | 
| Datenbankoptionen konfigurieren. | Geben Sie den Datenbanknamen, den Port, die Parametergruppe, die Verschlüsselung und den KMS-Schlüssel an. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Sicherungen. | Geben Sie den Aufbewahrungszeitraum für Backups, das Backup-Fenster, die Startzeit und die Dauer an und ob Tags in Snapshots kopiert werden sollen. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Überwachungsoptionen. | Aktivieren oder deaktivieren Sie erweiterte Überwachungs- und Leistungseinblicke. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Wartungsoptionen. | Geben Sie das auto Upgrade der Nebenversion, das Wartungsfenster sowie den Starttag, die Uhrzeit und die Dauer an. | AWS SysAdmin, DBA | 
| Führen Sie die Skripts vor der Migration von AWS SCT aus. | Führen Sie auf der Amazon RDS-Instance die folgenden von AWS SCT generierten Skripts aus:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms.html) | AWS SysAdmin, DBA | 

### Konfigurieren Sie den Oracle-Bystander in Amazon EC2
<a name="configure-the-oracle-bystander-in-amazon-ec2"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie das Netzwerk für Amazon ein EC2. | Erstellen Sie die neue VPC, Subnetze, Internet-Gateways, Routing-Tabellen und Sicherheitsgruppen. | AWS SysAdmin | 
| Erstellen Sie die EC2 Instanz. | Erstellen Sie in der entsprechenden AWS-Region eine neue EC2 Instance. Wählen Sie das Amazon Machine Image (AMI), wählen Sie die Instance-Größe und konfigurieren Sie die Instance-Details: Anzahl der Instances (1), VPC und Subnetz, die Sie in der vorherigen Aufgabe erstellt haben, automatische Zuweisung öffentlicher IP-Adressen und andere Optionen. Speicher hinzufügen, Sicherheitsgruppen konfigurieren und starten. Wenn Sie dazu aufgefordert werden, erstellen und speichern Sie ein key pair für den nächsten Schritt. | AWS SysAdmin | 
| Connect die Oracle-Quelldatenbank mit der EC2 Instanz. | Kopieren Sie die IPv4 öffentliche IP-Adresse und den DNS in eine Textdatei und stellen Sie mithilfe von SSH wie folgt eine Verbindung her: **ssh -i „your\$1file.pem“ ec2-user@<your-IP** - -DNS>. address-or-public | AWS SysAdmin | 
| Richten Sie den ersten Host für einen Zuschauer in Amazon ein. EC2 | Richten Sie SSH-Schlüssel, Bash-Profil, ORATAB und symbolische Links ein. Erstellen Sie Oracle-Verzeichnisse. | AWS SysAdmin, Linux-Administrator | 
| Richten Sie die Datenbankkopie für einen Zuschauer in Amazon ein EC2 | Verwenden Sie RMAN, um eine Datenbankkopie zu erstellen, die zusätzliche Protokollierung zu aktivieren und die Standby-Steuerdatei zu erstellen. Nachdem der Kopiervorgang abgeschlossen ist, versetzen Sie die Datenbank in den Wiederherstellungsmodus. | AWS SysAdmin, DBA | 
| Richten Sie Oracle Data Guard ein. | Ändern Sie Ihre Datei **listener.ora** und starten Sie den Listener. Richten Sie ein neues Archivziel ein. Versetzen Sie den Zuschauer in den Wiederherstellungsmodus, ersetzen Sie temporäre Dateien, um future Beschädigungen zu vermeiden, installieren Sie bei Bedarf ein Crontab, um zu verhindern, dass dem Archivverzeichnis der Speicherplatz ausgeht, und bearbeiten Sie die **manage-trclog-files-oracle.cfg-Datei** für die Quelle und den Standby-Modus. | AWS SysAdmin, DBA | 
| Bereiten Sie die Oracle-Datenbank für die Versandsynchronisierung vor. | Fügen Sie die Standby-Protokolldateien hinzu und ändern Sie den Wiederherstellungsmodus. Ändern Sie den Protokollversand sowohl auf der primären Quelle als auch auf der Standby-Quelle auf **SYNC AFFIRM**. Schalten Sie die primären Protokolle ein, bestätigen Sie über das Amazon EC2 Bystander Alert Log, dass Sie die Standby-Protokolldateien verwenden, und stellen Sie sicher, dass der Redo-Stream SYNC läuft. | AWS SysAdmin, DBA | 

### Migrieren Sie Daten mit AWS DMS
<a name="migrate-data-with-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Replikationsinstanz in AWS DMS. | Füllen Sie die Felder für den Namen, die Instance-Klasse, die VPC (wie die EC2 Amazon-Instance), Multi-AZ und den öffentlichen Zugriff aus. Geben Sie unter **Advance** den zugewiesenen Speicher, die Subnetzgruppe, die Availability Zone, die VPC-Sicherheitsgruppen und den AWS Key Management Service (AWS KMS) -Schlüssel an. | AWS SysAdmin, DBA | 
| Erstellen Sie den Endpunkt der Quelldatenbank. | Geben Sie den Endpunktnamen, den Typ, die Quell-Engine (Oracle), den Servernamen (Amazon EC2 Private DNS-Name), den Port, den SSL-Modus, den Benutzernamen, das Passwort, die SID, die VPC (geben Sie die VPC an, die die Replikationsinstanz hat) und die Replikationsinstanz an. Um die Verbindung zu testen, wählen Sie **Test ausführen** und erstellen Sie dann den Endpunkt. Sie können auch die folgenden erweiterten Einstellungen konfigurieren: **maxFileSize**und **numberDataTypeSkalieren**. | AWS SysAdmin, DBA | 
| Connect AWS DMS mit Amazon RDS for PostgreSQL. | Erstellen Sie eine Migrationssicherheitsgruppe für Verbindungen zwischen. VPCs | AWS SysAdmin, DBA | 
| Erstellen Sie den Zieldatenbank-Endpunkt. | Geben Sie den Endpunktnamen, den Typ, die Quell-Engine (PostgreSQL), den Servernamen (Amazon RDS-Endpunkt), den Port, den SSL-Modus, den Benutzernamen, das Passwort, den Datenbanknamen, die VPC (geben Sie die VPC an, die die Replikationsinstanz hat) und die Replikationsinstanz an. Um die Verbindung zu testen, wählen Sie **Test ausführen** und erstellen Sie dann den Endpunkt. Sie können auch die folgenden erweiterten Einstellungen konfigurieren: **maxFileSize **und **numberDataTypeSkalieren**. | AWS SysAdmin, DBA | 
| Erstellen Sie die AWS DMS-Replikationsaufgabe. | Geben Sie den Namen der Aufgabe, die Replikationsinstanz, die Quell- und Zielendpunkte sowie die Replikationsinstanz an. Wählen Sie als Migrationstyp die Option **Bestehende Daten migrieren und laufende Änderungen replizieren aus**. Deaktivieren **Sie das Kontrollkästchen Aufgabe bei Erstellung starten**. | AWS SysAdmin, DBA | 
| Konfigurieren Sie die Einstellungen für die AWS DMS-Replikationsaufgabe. | Wählen Sie für den Modus zur Vorbereitung der Zieltabelle die Option **Nichts tun**. Stoppen Sie die Aufgabe nach Abschluss des Vollladevorgangs (um Primärschlüssel zu erstellen). Geben Sie den eingeschränkten oder vollständigen LOB-Modus an und aktivieren Sie die Steuertabellen. Optional können Sie die **CommitRate**erweiterte Einstellung konfigurieren. | DBA | 
| Konfigurieren Sie Tabellenzuordnungen. | **Erstellen Sie im Abschnitt **Tabellenzuordnungen** eine Einschlussregel für alle Tabellen in allen Schemas, die in der Migration enthalten **sind**, und erstellen Sie dann eine Ausschlussregel.** Fügen Sie drei Transformationsregeln hinzu, um die Schema-, Tabellen- und Spaltennamen in Kleinbuchstaben umzuwandeln, und fügen Sie alle anderen Regeln hinzu, die für diese spezielle Migration erforderlich sind. | DBA | 
| Starten Sie die -Aufgabe. | Starten Sie die Replikationsaufgabe. Stellen Sie sicher, dass die Volllast läuft. Führen Sie **ALTER SYSTEM SWITCH LOGFILE** in der primären Oracle-Datenbank aus, um die Aufgabe zu starten. | DBA | 
| Führen Sie die Skripts während der Migration von AWS SCT aus. | Führen Sie in Amazon RDS for PostgreSQL die folgenden von AWS SCT generierten Skripts aus: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms.html) | DBA | 
| Starten Sie die Aufgabe neu, um mit der Erfassung von Änderungsdaten (CDC) fortzufahren. | Führen Sie **VACUUM** auf der Amazon RDS for PostgreSQL PostgreSQL-DB-Instance aus und starten Sie die AWS DMS-Aufgabe neu, um zwischengespeicherte CDC-Änderungen anzuwenden. | DBA | 

### Wechseln Sie zur PostgreSQL-Datenbank
<a name="cut-over-to-the-postgresql-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die AWS DMS-Protokolle und Validierungstabellen auf Fehler. | Überprüfen und beheben Sie alle Replikations- oder Validierungsfehler. | DBA | 
| Stoppen Sie alle Oracle-Abhängigkeiten. | Stoppen Sie alle Oracle-Abhängigkeiten, fahren Sie die Listener in der Oracle-Datenbank herunter und führen Sie **ALTER SYSTEM SWITCH LOGFILE** aus. Beenden Sie die AWS DMS-Aufgabe, wenn keine Aktivität angezeigt wird. | DBA | 
| Führen Sie die Skripts nach der Migration von AWS SCT aus. | Führen Sie in Amazon RDS for PostgreSQL die folgenden von AWS SCT generierten Skripts aus:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms.html) | DBA | 
| Führen Sie zusätzliche Schritte von Amazon RDS for PostgreSQL aus. | Inkrementieren Sie die Sequenzen bei Bedarf so, dass sie mit Oracle übereinstimmen, führen Sie **VACUUM** und **ANALYZE** aus und erstellen Sie aus Compliance-Gründen einen Snapshot. | DBA | 
| Öffnen Sie die Verbindungen zu Amazon RDS for PostgreSQL. | Entfernen Sie die AWS DMS-Sicherheitsgruppen aus Amazon RDS for PostgreSQL, fügen Sie Produktionssicherheitsgruppen hinzu und verweisen Sie Ihre Anwendungen auf die neue Datenbank. | DBA | 
| Bereinigen Sie AWS DMS-Objekte. | Entfernen Sie die Endgeräte, Replikationsaufgaben, Replikationsinstanzen und die EC2 Instanz. | SysAdmin, DBA | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms-resources"></a>
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/)
+ [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ [Preise für Amazon RDS for PostgreSQL](https://aws.amazon.com/rds/postgresql/pricing/) 

# Migrieren Sie eine Oracle-Datenbank mit AWS DMS und AWS SCT zu Amazon Redshift
<a name="migrate-an-oracle-database-to-amazon-redshift-using-aws-dms-and-aws-sct"></a>

*Piyush Goyal und Brian Motzer, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-oracle-database-to-amazon-redshift-using-aws-dms-and-aws-sct-summary"></a>

Dieses Muster bietet Anleitungen für die Migration von Oracle-Datenbanken zu einem Amazon Redshift Cloud Data Warehouse in der Amazon Web Services (AWS) -Cloud mithilfe von AWS Database Migration Service (AWS DMS) und AWS Schema Conversion Tool (AWS SCT). Das Muster deckt Oracle-Quelldatenbanken ab, die lokal installiert oder auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance installiert sind. Es behandelt auch Amazon Relational Database Service (Amazon RDS) für Oracle-Datenbanken.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-oracle-database-to-amazon-redshift-using-aws-dms-and-aws-sct-prereqs"></a>

**Voraussetzungen**
+ Eine Oracle-Datenbank, die in einem lokalen Rechenzentrum oder in der AWS-Cloud läuft
+ Ein aktives AWS-Konto
+ Vertrautheit mit [der Verwendung einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ Vertrautheit mit [der Verwendung einer Amazon Redshift Redshift-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Redshift.html)
+ Kenntnisse über Amazon RDS, Amazon Redshift, die anwendbaren Datenbanktechnologien und SQL
+ Java Database Connectivity (JDBC) -Treiber für AWS SCT-Konnektoren, auf denen AWS SCT installiert ist

**Produktversionen**
+ Für selbstverwaltete Oracle-Datenbanken unterstützt AWS DMS alle Oracle-Datenbankeditionen für Versionen 10.2 und höher (für Versionen 10. *x*), 11g und bis zu 12.2, 18c und 19c. Für Amazon RDS for Oracle Oracle-Datenbanken, die AWS verwaltet, unterstützt AWS DMS alle Oracle-Datenbankeditionen für die Versionen 11g (Versionen 11.2.0.4 und höher) und bis zu 12.2, 18c und 19c. Wir empfehlen Ihnen, die neueste Version von AWS DMS zu verwenden, um die umfassendste Version von Versionen und Funktionen zu erhalten.

## Architektur
<a name="migrate-an-oracle-database-to-amazon-redshift-using-aws-dms-and-aws-sct-architecture"></a>

**Quelltechnologie-Stack**

Eine der beiden folgenden Komponenten:
+ Eine lokale Oracle-Datenbank
+ Eine Oracle-Datenbank auf einer Instanz EC2 
+ Eine Amazon RDS for Oracle Oracle-DB-Instance

**Zieltechnologie-Stack**
+ Amazon Redshift

**Zielarchitektur**

*Von einer Oracle-Datenbank, die in der AWS-Cloud läuft, zu Amazon Redshift:*

![\[Migration einer Oracle-Datenbank in der AWS-Cloud zu einem Amazon Redshift Redshift-Data Warehouse.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/22807be0-c7e0-49c6-8923-7d23bf83a50d/images/7140e819-81d6-45c4-805b-8e10828076a7.png)


*Von einer Oracle-Datenbank, die in einem lokalen Rechenzentrum läuft, zu Amazon Redshift:*

![\[Migration einer lokalen Oracle-Datenbank zu einem Amazon Redshift Data Warehouse.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/22807be0-c7e0-49c6-8923-7d23bf83a50d/images/d6654b48-0e1b-4b01-a261-5a640be01fd7.png)


## Tools
<a name="migrate-an-oracle-database-to-amazon-redshift-using-aws-dms-and-aws-sct-tools"></a>
+ [AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) — AWS Data Migration Service (AWS DMS) hilft Ihnen, Datenbanken schnell und sicher zu AWS zu migrieren. Die Quelldatenbank bleibt während der Migration voll funktionsfähig, wodurch Ausfallzeiten für Anwendungen, die auf die Datenbank angewiesen sind, minimiert werden. AWS DMS kann Ihre Daten zu und von den am häufigsten verwendeten kommerziellen und Open-Source-Datenbanken migrieren. 
+ [AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) — Das AWS Schema Conversion Tool (AWS SCT) kann verwendet werden, um Ihr vorhandenes Datenbankschema von einer Datenbank-Engine in eine andere zu konvertieren. Es unterstützt verschiedene Datenbank-Engines, darunter Oracle, SQL Server und PostgresSQL, als Quellen.

## Epen
<a name="migrate-an-oracle-database-to-amazon-redshift-using-aws-dms-and-aws-sct-epics"></a>

### Bereite dich auf die Migration vor
<a name="prepare-for-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie die Datenbankversionen. | Überprüfen Sie die Quell- und Zieldatenbankversionen und stellen Sie sicher, dass sie von AWS DMS unterstützt werden. Informationen zu unterstützten Oracle-Datenbankversionen finden Sie unter [Eine Oracle-Datenbank als Quelle für AWS DMS verwenden](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html). Informationen zur Verwendung von Amazon Redshift als Ziel finden Sie unter [Verwenden einer Amazon Redshift Redshift-Datenbank als Ziel für AWS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Redshift.html) DMS. | DBA | 
| Erstellen Sie eine VPC und eine Sicherheitsgruppe. | Erstellen Sie in Ihrem AWS-Konto eine Virtual Private Cloud (VPC), falls diese nicht existiert. Erstellen Sie eine Sicherheitsgruppe für ausgehenden Datenverkehr zu Quell- und Zieldatenbanken. Weitere Informationen finden Sie in der [Dokumentation zu Amazon Virtual Private Cloud (Amazon VPC)](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html). | Systemadministrator | 
| Installieren Sie AWS SCT. | Laden Sie die neueste Version von AWS SCT und die entsprechenden Treiber herunter und installieren Sie sie. Weitere Informationen finden Sie unter [Installation, Überprüfung und Aktualisierung des AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Installing.html). | DBA | 
| Erstellen Sie einen Benutzer für die AWS DMS-Aufgabe. | Erstellen Sie einen AWS DMS-Benutzer in der Quelldatenbank und gewähren Sie ihm READ-Rechte. Dieser Benutzer wird sowohl von AWS SCT als auch von AWS DMS verwendet. | DBA | 
| Testen Sie die DB-Konnektivität. | Testen Sie die Konnektivität zur Oracle-DB-Instance. | DBA | 
| Erstellen Sie ein neues Projekt in AWS-SCT. | Öffnen Sie das AWS SCT-Tool und erstellen Sie ein neues Projekt. | DBA | 
| Analysieren Sie das zu migrierende Oracle-Schema. | Verwenden Sie AWS SCT, um das zu migrierende Schema zu analysieren und einen Bewertungsbericht zur Datenbankmigration zu erstellen. Weitere Informationen finden Sie unter [Erstellen eines Bewertungsberichts zur Datenbankmigration](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_AssessmentReport.Create.html) in der AWS SCT-Dokumentation. | DBA | 
| Überprüfen Sie den Bewertungsbericht. | Überprüfen Sie den Bericht auf die Durchführbarkeit der Migration. Einige DB-Objekte müssen möglicherweise manuell konvertiert werden. Weitere Informationen zum Bericht finden Sie unter [Bewertungsbericht anzeigen](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_AssessmentReport.View.html) in der AWS SCT-Dokumentation. | DBA | 

### Bereiten Sie die Zieldatenbank vor
<a name="prepare-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen Amazon Redshift Redshift-Cluster. | Erstellen Sie einen Amazon Redshift Redshift-Cluster in der VPC, die Sie zuvor erstellt haben. Weitere Informationen finden Sie unter [Amazon Redshift Redshift-Cluster](https://docs.aws.amazon.com/redshift/latest/mgmt/working-with-clusters.html) in der Amazon Redshift Redshift-Dokumentation. | DBA | 
| Datenbankbenutzer erstellen. | Extrahieren Sie die Liste der Benutzer, Rollen und Berechtigungen aus der Oracle-Quelldatenbank. Erstellen Sie Benutzer in der Amazon Redshift Redshift-Zieldatenbank und wenden Sie die Rollen aus dem vorherigen Schritt an. | DBA | 
| Evaluieren Sie Datenbankparameter. | Überprüfen Sie die Datenbankoptionen, Parameter, Netzwerkdateien und Datenbank-Links aus der Oracle-Quelldatenbank und bewerten Sie deren Anwendbarkeit auf das Ziel.             | DBA | 
| Wenden Sie alle relevanten Einstellungen auf das Ziel an.  | Weitere Informationen zu diesem Schritt finden Sie unter [Konfigurationsreferenz](https://docs.aws.amazon.com/redshift/latest/dg/cm_chap_ConfigurationRef.html) in der Amazon Redshift Redshift-Dokumentation. | DBA | 

### Objekte in der Zieldatenbank erstellen
<a name="create-objects-in-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen AWS DMS-Benutzer in der Zieldatenbank. | Erstellen Sie einen AWS DMS-Benutzer in der Zieldatenbank und gewähren Sie ihm Lese- und Schreibberechtigungen. Überprüfen Sie die Konnektivität von AWS SCT. | DBA | 
| Konvertieren Sie das Schema, überprüfen Sie den SQL-Bericht und speichern Sie alle Fehler oder Warnungen. | Weitere Informationen finden Sie unter [Konvertieren von Datenbankschemas mithilfe von AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Converting.html) in der AWS SCT-Dokumentation. | DBA | 
| Wenden Sie die Schemaänderungen auf die Zieldatenbank an oder speichern Sie sie als.sql-Datei. | Anweisungen finden Sie unter [Speichern und Anwenden Ihres konvertierten Schemas im AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Converting.DW.html#CHAP_Converting.DW.SaveAndApply) in der AWS SCT-Dokumentation. | DBA | 
| Validieren Sie die Objekte in der Zieldatenbank. | Validieren Sie die Objekte, die im vorherigen Schritt in der Zieldatenbank erstellt wurden. Schreiben Sie alle Objekte, die nicht erfolgreich konvertiert wurden, neu oder entwerfen Sie sie neu. | DBA | 
| Deaktivieren Sie Fremdschlüssel und Trigger. | Deaktivieren Sie alle Fremdschlüssel und Trigger. Diese können zu Problemen beim Laden von Daten während des Vollladevorgangs führen, wenn AWS DMS ausgeführt wird. | DBA | 

### Migrieren Sie Daten mit AWS DMS
<a name="migrate-data-using-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine AWS DMS-Replikations-Instance. | Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die AWS DMS-Konsole. Wählen Sie im Navigationsbereich **Replikationsinstanzen, Replikationsinstanz** **erstellen** aus. Eine ausführliche Anleitung finden Sie in [Schritt 1](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html#CHAP_GettingStarted.ReplicationInstance) unter *Erste Schritte mit AWS DMS* in der AWS DMS-Dokumentation. | DBA | 
| Erstellen Sie Quell- und Zielendpunkte. | Erstellen Sie Quell- und Zielendpunkte und testen Sie die Verbindung zwischen der Replikationsinstanz und den Quell- und Zielendpunkten. Eine ausführliche Anleitung finden Sie in [Schritt 2](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html#CHAP_GettingStarted.Endpoints) unter *Erste Schritte mit AWS DMS* in der AWS DMS-Dokumentation. | DBA | 
| Erstellen Sie eine Replikationsaufgabe. | Erstellen Sie eine Replikationsaufgabe und wählen Sie die entsprechende Migrationsmethode aus. Eine ausführliche Anleitung finden Sie in [Schritt 3](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html#CHAP_GettingStarted.Tasks) unter *Erste Schritte mit AWS DMS* in der AWS DMS-Dokumentation. | DBA | 
| Starten Sie die Datenreplikation. | Starten Sie die Replikationsaufgabe und überwachen Sie die Protokolle auf Fehler. | DBA | 

### Migrieren Sie Ihre Anwendung
<a name="migrate-your-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie Anwendungsserver. | Erstellen Sie die neuen Anwendungsserver auf AWS. | Besitzer der Anwendung | 
| Migrieren Sie den Anwendungscode. | Migrieren Sie den Anwendungscode auf die neuen Server. | Besitzer der Anwendung | 
| Konfigurieren Sie den Anwendungsserver. | Konfigurieren Sie den Anwendungsserver für die Zieldatenbank und die Treiber. | Besitzer der Anwendung | 
| Optimieren Sie den Anwendungscode. | Optimieren Sie den Anwendungscode für die Ziel-Engine. | Besitzer der Anwendung | 

### Wechseln Sie zur Zieldatenbank
<a name="cut-over-to-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Benutzer validieren. | Validieren Sie Benutzer in der Amazon Redshift Redshift-Zieldatenbank und gewähren Sie ihnen Rollen und Rechte. | DBA | 
| Stellen Sie sicher, dass die Anwendung gesperrt ist. | Stellen Sie sicher, dass die Anwendung gesperrt ist, um weitere Änderungen zu verhindern. | Besitzer der Anwendung | 
| Validieren Sie die Daten. | Überprüfen Sie die Daten in der Amazon Redshift Redshift-Zieldatenbank. | DBA | 
| Aktivieren Sie Fremdschlüssel und Trigger. | Aktivieren Sie Fremdschlüssel und Trigger in der Amazon Redshift Redshift-Zieldatenbank. | DBA | 
| Connect der neuen Datenbank her. | Konfigurieren Sie die Anwendung für die Verbindung mit der neuen Amazon Redshift Redshift-Datenbank. | Besitzer der Anwendung | 
| Führen Sie die letzten Prüfungen durch. | Führen Sie vor der Inbetriebnahme eine letzte, umfassende Systemüberprüfung durch. | DBA, Besitzer der Anwendung | 
| Geh live. | Gehen Sie mit der Amazon Redshift Redshift-Zieldatenbank live. | DBA | 

### Schließen Sie das Migrationsprojekt
<a name="close-the-migration-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie temporäre AWS-Ressourcen herunter. | Fahren Sie temporäre AWS-Ressourcen wie die AWS DMS-Replikationsinstanz und die für AWS SCT verwendete EC2 Instanz herunter.  | DBA, Systemadministrator | 
| Dokumente überprüfen.  | Überprüfen und validieren Sie die Dokumente des Migrationsprojekts.     | DBA, Systemadministrator | 
| Sammeln Sie Metriken. | Sammeln Sie Informationen über das Migrationsprojekt, z. B. die Zeit für die Migration, den Prozentsatz manueller Aufgaben im Vergleich zu den Toolaufgaben und die Gesamtkosteneinsparungen.  | DBA, Systemadministrator | 
| Schließt das Projekt ab. | Schließen Sie das Projekt ab und geben Sie Feedback. | DBA, Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-an-oracle-database-to-amazon-redshift-using-aws-dms-and-aws-sct-resources"></a>

**Referenzen**
+ [AWS DMS-Benutzerhandbuch](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
+ [AWS SCT-Benutzerhandbuch](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) 
+ [Leitfaden „Erste Schritte“ mit Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/gsg/getting-started.html)

**Tutorials und Videos**
+ [Tauchen Sie tief in AWS SCT und AWS DMS](https://www.youtube.com/watch?v=kJs9U4ys5FE) ein (Präsentation von AWS re:Invent 2019)
+ [Erste Schritte mit dem AWS Database Migration Service](https://aws.amazon.com/dms/getting-started/)

# Migrieren Sie eine Oracle-Datenbank mit AWS DMS und AWS SCT zu Aurora PostgreSQL
<a name="migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct"></a>

*Senthil Ramasamy, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct-summary"></a>

Dieses Muster beschreibt, wie eine Oracle-Datenbank mithilfe von AWS Data Migration Service (AWS DMS) und AWS Schema Conversion Tool (AWS SCT) zu Amazon Aurora PostgreSQL-Compatible Edition migriert wird. 

Das Muster umfasst Oracle-Quelldatenbanken, die sich vor Ort befinden, Oracle-Datenbanken, die auf Amazon Elastic Compute Cloud (Amazon EC2) -Instances installiert sind, und Amazon Relational Database Service (Amazon RDS) für Oracle-Datenbanken. Das Muster konvertiert diese Datenbanken in Aurora PostgreSQL-kompatible Datenbanken.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto.
+ Eine Oracle-Datenbank in einem lokalen Rechenzentrum oder in der AWS-Cloud.
+ SQL-Clients, die entweder auf einem lokalen Computer oder auf einer EC2 Instanz installiert sind.
+ Java Database Connectivity (JDBC) -Treiber für AWS SCT-Konnektoren, die entweder auf einem lokalen Computer oder einer EC2 Instance installiert sind, auf der AWS SCT installiert ist. 

**Einschränkungen**
+ Größenbeschränkung der Datenbank: 128 TB 
+ Wenn die Quelldatenbank eine kommerzielle off-the-shelf (COTS) Anwendung unterstützt oder herstellerspezifisch ist, können Sie sie möglicherweise nicht in eine andere Datenbank-Engine konvertieren. Stellen Sie vor der Verwendung dieses Musters sicher, dass die Anwendung Aurora PostgreSQL-kompatibel unterstützt.  

**Versionen der Produkte**
+ Für selbstverwaltete Oracle-Datenbanken unterstützt AWS DMS alle Oracle-Datenbankeditionen für die Versionen 10.2 und höher (für Versionen 10.x), 11g und bis zu 12.2, 18c und 19c. Die aktuelle Liste der unterstützten Oracle-Datenbankversionen (sowohl selbstverwaltete als auch Amazon RDS for Oracle) finden Sie unter [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) und [Verwenden einer PostgreSQL-Datenbank als Ziel](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html) für AWS DMS. 
+ Wir empfehlen Ihnen, die neueste Version von AWS DMS zu verwenden, um die umfassendste Version von Versionen und Funktionen zu erhalten. Informationen zu den von AWS SCT unterstützten Oracle-Datenbankversionen finden Sie in der [AWS SCT-Dokumentation.](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) 
+ Aurora unterstützt die in den [Amazon Aurora PostgreSQL-Versionen und Engine-Versionen aufgeführten PostgreSQL-Versionen](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.Updates.20180305.html).

## Architektur
<a name="migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct-architecture"></a>

**Quelltechnologie-Stack**

Eine der beiden folgenden Komponenten:
+ Eine lokale Oracle-Datenbank
+ Eine Oracle-Datenbank auf einer Instanz EC2  
+ Eine Amazon RDS for Oracle Oracle-DB-Instance

**Zieltechnologie-Stack**
+ Aurora PostgreSQL-kompatibel 

**Zielarchitektur**

![\[Zielarchitektur für die Migration von Oracle-Datenbanken nach Aurora PostgreSQL-kompatibel.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/6de157c4-dcc9-4186-ae32-17efbbbee709/images/68beb634-926e-4908-97b1-edcd23e06a2b.png)


**Architektur der Datenmigration**
+ Aus einer Oracle-Datenbank, die in der AWS-Cloud läuft   
![\[Datenmigrationsarchitektur für eine Oracle-Datenbank auf AWS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/6de157c4-dcc9-4186-ae32-17efbbbee709/images/7fc32019-3db1-485b-93e5-6d5539be048c.png)

   
+ Aus einer Oracle-Datenbank, die in einem lokalen Rechenzentrum läuft  
![\[Datenmigrationsarchitektur für eine Oracle-Datenbank in einem lokalen Rechenzentrum.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/6de157c4-dcc9-4186-ae32-17efbbbee709/images/c70d8774-aef7-4414-9766-ce8f25757c4b.png)

## Tools
<a name="migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct-tools"></a>
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.
+ Das [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein mit der Zieldatenbank kompatibles Format konvertiert werden.

## Epen
<a name="migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct-epics"></a>

### Bereite dich auf die Migration vor
<a name="prepare-for-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie die Quelldatenbank vor. | Informationen zur Vorbereitung der Quelldatenbank finden Sie [unter Verwenden von Oracle Database als Quelle für AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.html) in der AWS SCT-Dokumentation. | DBA | 
| Erstellen Sie eine EC2 Instanz für AWS SCT. | Erstellen und konfigurieren Sie bei Bedarf eine EC2 Instanz für AWS SCT. | DBA | 
| Laden Sie AWS SCT herunter. | Laden Sie die neueste Version von AWS SCT und die zugehörigen Treiber herunter. Weitere Informationen finden Sie unter [Installation, Überprüfung und Aktualisierung von AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Installing.html) in der AWS SCT-Dokumentation. | DBA | 
| Fügen Sie Benutzer und Berechtigungen hinzu. | Fügen Sie die erforderlichen Benutzer und Berechtigungen in der Quelldatenbank hinzu und überprüfen Sie sie. | DBA | 
| Erstellen Sie ein AWS SCT-Projekt. | Erstellen Sie ein AWS SCT-Projekt für den Workload und stellen Sie eine Verbindung zur Quelldatenbank her. Anweisungen finden Sie in der [AWS SCT-Dokumentation unter Erstellen eines AWS-SCT-Projekts](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html#CHAP_UserInterface.Project) und [Hinzufügen von Datenbankservern](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html#CHAP_UserInterface.AddServers). | DBA | 
| Beurteilen Sie die Machbarkeit. | Generieren Sie einen Bewertungsbericht, der Aktionspunkte für Schemas zusammenfasst, die nicht automatisch konvertiert werden können, und Schätzungen für den manuellen Konvertierungsaufwand enthält. Weitere Informationen finden Sie unter [Erstellen und Überprüfen des Bewertungsberichts zur Datenbankmigration](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html#CHAP_UserInterface.AssessmentReport) in der AWS SCT-Dokumentation. | DBA | 

### Bereiten Sie die Zieldatenbank vor
<a name="prepare-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Amazon RDS-DB-Zielinstanz. | Erstellen Sie eine Amazon RDS-DB-Zielinstanz mit Amazon Aurora als Datenbank-Engine. Anweisungen finden Sie in der [Amazon RDS-Dokumentation unter Erstellen einer Amazon RDS-DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_CreateDBInstance.html). | DBA | 
| Extrahieren Sie Benutzer, Rollen und Berechtigungen. | Extrahieren Sie die Liste der Benutzer, Rollen und Berechtigungen aus der Quelldatenbank. | DBA | 
| Benutzer zuordnen. | Ordnen Sie die vorhandenen Datenbankbenutzer den neuen Datenbankbenutzern zu. | Besitzer der App | 
| Benutzer erstellen. | Benutzer in der Zieldatenbank erstellen. | DBA, Besitzer der App | 
| Rollen anwenden. | Wenden Sie Rollen aus dem vorherigen Schritt auf die Zieldatenbank an. | DBA | 
| Überprüfen Sie Optionen, Parameter, Netzwerkdateien und Datenbanklinks. | Überprüfen Sie die Quelldatenbank auf Optionen, Parameter, Netzwerkdateien und Datenbanklinks und bewerten Sie dann deren Anwendbarkeit auf die Zieldatenbank. | DBA | 
| Einstellungen übernehmen. | Wenden Sie alle relevanten Einstellungen auf die Zieldatenbank an. | DBA | 

### Objekte übertragen
<a name="transfer-objects"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie die AWS SCT-Konnektivität. | Konfigurieren Sie die AWS SCT-Konnektivität zur Zieldatenbank. | DBA | 
| Konvertieren Sie das Schema mit AWS SCT. | AWS SCT konvertiert das Quelldatenbankschema und den größten Teil des benutzerdefinierten Codes automatisch in ein Format, das mit der Zieldatenbank kompatibel ist. Jeder Code, den das Tool nicht automatisch konvertieren kann, ist deutlich gekennzeichnet, sodass Sie ihn manuell konvertieren können. | DBA | 
| Überprüfen Sie den Bericht. | Überprüfen Sie den generierten SQL-Bericht und speichern Sie alle Fehler und Warnungen. | DBA | 
| Wenden Sie automatische Schemaänderungen an. | Wenden Sie automatische Schemaänderungen auf die Zieldatenbank an oder speichern Sie sie als.sql-Datei. | DBA | 
| Objekte validieren. | Überprüfen Sie, ob AWS SCT die Objekte auf dem Ziel erstellt hat.  | DBA | 
| Behandeln Sie Elemente, die nicht konvertiert wurden. | Alle Elemente, die nicht automatisch konvertiert werden konnten, können manuell neu geschrieben, zurückgewiesen oder neu gestaltet werden. | DBA, Besitzer der App | 
| Rollen- und Benutzerberechtigungen anwenden. | Wenden Sie die generierten Rollen- und Benutzerberechtigungen an und überprüfen Sie alle Ausnahmen. | DBA | 

### Migrieren Sie die Daten
<a name="migrate-the-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Ermitteln Sie die Methode. | Ermitteln Sie die Methode für die Datenmigration. | DBA | 
| Erstellen Sie eine Replikationsinstanz. | Erstellen Sie eine Replikationsinstanz von der AWS DMS-Konsole aus. Weitere Informationen finden Sie unter [Arbeiten mit einer AWS DMS-Replikationsinstanz](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_ReplicationInstance.html) in der AWS DMS-Dokumentation. | DBA | 
| Erstellen Sie die Quell- und Zielendpunkte. | Um Endpoints zu erstellen, folgen Sie den Anweisungen unter [Quell- und Zielendpunkte erstellen in der AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Endpoints.Creating.html). | DBA | 
| Erstellen Sie eine Replikationsaufgabe. | Informationen zum Erstellen einer Aufgabe finden Sie unter [Arbeiten mit AWS DMS-Aufgaben](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.html) in der AWS DMS-Dokumentation. | DBA | 
| Starten Sie die Replikationsaufgabe und überwachen Sie die Protokolle. | Weitere Informationen zu diesem Schritt finden Sie unter [Überwachung von AWS DMS-Aufgaben](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Monitoring.html) in der AWS DMS-Dokumentation. | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Analysieren und konvertieren Sie SQL-Elemente im Anwendungscode. | Verwenden Sie AWS SCT, um die SQL-Elemente im Anwendungscode zu analysieren und zu konvertieren. Wenn Sie Ihr Datenbankschema von einer Engine in eine andere konvertieren, müssen Sie auch den SQL-Code in Ihren Anwendungen aktualisieren, damit diese mit der neuen Datenbank-Engine anstelle der alten interagieren. Sie können den konvertierten SQL-Code anzeigen, analysieren, bearbeiten und speichern. | Besitzer der App | 
| Anwendungsserver erstellen. | Erstellen Sie die neuen Anwendungsserver auf AWS. | Besitzer der App | 
| Migrieren Sie den Anwendungscode. | Migrieren Sie den Anwendungscode auf die neuen Server. | Besitzer der App | 
| Konfigurieren Sie die Anwendungsserver. | Konfigurieren Sie die Anwendungsserver für die Zieldatenbank und die Treiber. | Besitzer der App | 
| Code korrigieren. | Korrigieren Sie jeglichen Code, der spezifisch für die Quelldatenbank-Engine in Ihrer Anwendung ist. | Besitzer der App | 
| Code optimieren. | Optimieren Sie Ihren Anwendungscode für die Zieldatenbank-Engine. | Besitzer der App | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Wechseln Sie zur Zieldatenbank. | Führen Sie die Umstellung auf die neue Datenbank durch. | DBA | 
| Sperren Sie die Anwendung. | Sperren Sie die Anwendung vor weiteren Änderungen. | Besitzer der App | 
| Änderungen validieren. | Stellen Sie sicher, dass alle Änderungen an die Zieldatenbank weitergegeben wurden. | DBA | 
| Zur Zieldatenbank umleiten. | Verweisen Sie die neuen Anwendungsserver auf die Zieldatenbank. | Besitzer der App | 
| Überprüfe alles. | Führen Sie einen abschließenden, umfassenden Systemcheck durch. | Besitzer der App | 
| Geh live. | Erledigen Sie die letzten Umstellungsaufgaben. | Besitzer der App | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Temporäre Ressourcen abschalten. | Fahren Sie die temporären AWS-Ressourcen wie die AWS DMS-Replikationsinstanz und die für AWS SCT verwendete EC2 Instanz herunter. | DBA, Besitzer der App | 
| Feedback aktualisieren. | Aktualisieren Sie das Feedback zum AWS DMS-Prozess für interne Teams. | DBA, Besitzer der App | 
| Überarbeiten Sie den Prozess und die Vorlagen. | Überarbeiten Sie den AWS-DMS-Prozess und verbessern Sie gegebenenfalls die Vorlage. | DBA, Besitzer der App | 
| Dokumente validieren. | Überprüfen und validieren Sie die Projektdokumente. | DBA, Besitzer der App | 
| Sammeln Sie Metriken. | Sammeln Sie Kennzahlen, um den Zeitaufwand für die Migration, den prozentualen Anteil der manuellen Kosten im Vergleich zu den Werkzeugkosten usw. zu bewerten. | DBA, Besitzer der App | 
| Schließt das Projekt. | Schließen Sie das Migrationsprojekt ab und geben Sie den Beteiligten Feedback. | DBA, Besitzer der App | 

## Zugehörige Ressourcen
<a name="migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct-resources"></a>

**Referenzen**
+ [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ [Verwenden einer PostgreSQL-Datenbank als Ziel für den AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html)
+ [Leitfaden zur Migration von Oracle Database 11g/12c zu Amazon Aurora mit PostgreSQL-Kompatibilität (9.6.x)](https://d1.awsstatic.com/whitepapers/Migration/oracle-database-amazon-aurora-postgresql-migration-playbook.pdf) 
+ [Playbook zur Migration von Oracle Database 19c zu Amazon Aurora mit PostgreSQL-Kompatibilität (12.4)](https://d1.awsstatic.com/whitepapers/Migration/oracle-database-amazon-aurora-postgresql-migration-playbook-12.4.pdf)
+ [Migration einer Amazon RDS for Oracle Oracle-Datenbank zur Amazon Aurora PostgreSQL-kompatiblen Edition](https://docs.aws.amazon.com/dms/latest/sbs/chap-oracle-postgresql.html)
+ [AWS-Datenmigrationsservice](https://aws.amazon.com/dms/)
+ [AWS-Schemakonvertierungstool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) 
+ [Migrieren Sie von Oracle zu Amazon Aurora](https://aws.amazon.com/getting-started/projects/migrate-oracle-to-amazon-aurora/)
+ [Amazon-RDS-Preise](https://aws.amazon.com/rds/pricing/)

**Tutorials und Videos**
+ [ Step-by-StepExemplarische Vorgehensweisen zur Datenbankmigration](https://docs.aws.amazon.com/dms/latest/sbs/DMS-SBS-Welcome.html)
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)
+ [AWS-Datenmigrationsservice](https://www.youtube.com/watch?v=zb4GcjEdl8U) (Video)
+ [Migration einer Oracle-Datenbank zu PostgreSQL](https://www.youtube.com/watch?v=ibtNkChGFkw) (Video)

## Zusätzliche Informationen
<a name="migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct-additional"></a>

.

# Migrieren Sie Daten von einer lokalen Oracle-Datenbank zu Aurora PostgreSQL
<a name="migrate-data-from-an-on-premises-oracle-database-to-aurora-postgresql"></a>

*Michelle Deng und Shunan Xiang, Amazon Web Services*

## Zusammenfassung
<a name="migrate-data-from-an-on-premises-oracle-database-to-aurora-postgresql-summary"></a>

Dieses Muster bietet Anleitungen für die Datenmigration von einer lokalen Oracle-Datenbank zur Amazon Aurora PostgreSQL-Compatible Edition. Es zielt auf eine Online-Datenmigrationsstrategie mit minimalen Ausfallzeiten für Oracle-Datenbanken mit mehreren Terabyte ab, die große Tabellen mit umfangreichen Aktivitäten in der Datenmanipulationssprache (DML) enthalten. Eine Oracle Active Data Guard-Standby-Datenbank wird als Quelle verwendet, um die Datenmigration von der Primärdatenbank auszulagern. Die Replikation von der Oracle-Primärdatenbank zur Standby-Datenbank kann während der Volllast unterbrochen werden, um ORA-01555-Fehler zu vermeiden. 

Tabellenspalten in Primärschlüsseln (PKs) oder Fremdschlüsseln (FKs) mit dem Datentyp NUMBER werden in Oracle häufig zum Speichern von Ganzzahlen verwendet. Wir empfehlen, dass Sie diese in PostgreSQL in INT oder BIGINT konvertieren, um eine bessere Leistung zu erzielen. Sie können das AWS Schema Conversion Tool (AWS SCT) verwenden, um die standardmäßige Datentypzuordnung für PK- und FK-Spalten zu ändern. (Weitere Informationen finden Sie im AWS Blogbeitrag [Convert the NUMBER-Datentyp von Oracle nach PostgreSQL](https://aws.amazon.com/blogs/database/convert-the-number-data-type-from-oracle-to-postgresql-part-2/).) Die Datenmigration in diesem Muster verwendet AWS Database Migration Service (AWS DMS) sowohl für Volllast als auch für Change Data Capture (CDC).

Sie können dieses Muster auch verwenden, um eine lokale Oracle-Datenbank zu Amazon Relational Database Service (Amazon RDS) für PostgreSQL oder eine Oracle-Datenbank, die auf Amazon Elastic Compute Cloud (Amazon EC2) gehostet wird, entweder zu Amazon RDS for PostgreSQL oder Aurora PostgreSQL-kompatibel zu migrieren.

## Voraussetzungen und Einschränkungen
<a name="migrate-data-from-an-on-premises-oracle-database-to-aurora-postgresql-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Oracle-Quelldatenbank in einem lokalen Rechenzentrum mit konfiguriertem Active Data Guard-Standby 
+ AWS Direct Connect, konfiguriert zwischen dem lokalen Rechenzentrum und der AWS-Cloud
+ Vertrautheit mit [der Verwendung einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ Vertrautheit mit [der Verwendung einer PostgreSQL-Datenbank als Ziel](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html) für AWS DMS

**Einschränkungen**
+ Amazon Aurora Aurora-Datenbankcluster können mit bis zu 128 TiB Speicher erstellt werden. Amazon RDS for PostgreSQL PostgreSQL-Datenbank-Instances können mit bis zu 64 TiB Speicher erstellt werden. Die neuesten Speicherinformationen finden Sie in der AWS-Dokumentation unter [Amazon Aurora Aurora-Speicher und Zuverlässigkeit](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.Overview.StorageReliability.html) [und Amazon RDS-DB-Instance-Speicher](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Storage.html).

**Produktversionen**
+ AWS DMS unterstützt alle Oracle-Datenbankeditionen für die Versionen 10.2 und höher (für Versionen 10.x), 11g und bis zu 12.2, 18c und 19c. Die aktuelle Liste der unterstützten Versionen finden Sie unter [Using an Oracle Database as a Source for AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) in der AWS-Dokumentation. 

## Architektur
<a name="migrate-data-from-an-on-premises-oracle-database-to-aurora-postgresql-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale Oracle-Datenbanken mit konfiguriertem Oracle Active Data Guard Standby 

**Zieltechnologie-Stack**
+ Aurora PostgreSQL-kompatibel 

**Architektur für die Datenmigration**

![\[Migration einer Oracle-Datenbank zu Aurora PostgreSQL-kompatibel\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/49f9b03e-6d33-4ac0-94ad-d3e6d02e6d63/images/0038a36b-fb7d-4f2d-8376-8d38290b0736.png)


## Tools
<a name="migrate-data-from-an-on-premises-oracle-database-to-aurora-postgresql-tools"></a>
+ **AWS DMS** — [AWS Database Migration Service](https://docs.aws.amazon.com/dms/index.html) (AWS DMS) unterstützt mehrere Quell- und Zieldatenbanken. [Eine Liste der unterstützten Versionen und Editionen der Oracle-Quell- und Zieldatenbank finden Sie unter Verwenden](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) einer Oracle-Datenbank als Quelle für AWS DMS in der AWS DMS-Dokumentation. Wenn die Quelldatenbank nicht von AWS DMS unterstützt wird, müssen Sie in Phase 6 (im Abschnitt *Epics*) eine andere Methode für die Migration der Daten auswählen. **Wichtiger Hinweis:** Da es sich um eine heterogene Migration handelt, müssen Sie zunächst prüfen, ob die Datenbank eine kommerzielle off-the-shelf (COTS) Anwendung unterstützt. Wenn es sich bei der Anwendung um COTS handelt, wenden Sie sich an den Hersteller, um zu überprüfen, ob Aurora PostgreSQL-kompatibel unterstützt wird, bevor Sie fortfahren. Weitere Informationen finden Sie unter [AWS DMS Step-by-Step Migration Walkthroughs](https://docs.aws.amazon.com/dms/latest/sbs/DMS-SBS-Welcome.html) in der AWS-Dokumentation.
+ **AWS SCT** — Das [AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/Welcome.htm) (AWS SCT) erleichtert heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist. Der benutzerdefinierte Code, den das Tool konvertiert, umfasst Ansichten, gespeicherte Prozeduren und Funktionen. Jeder Code, den das Tool nicht automatisch konvertieren kann, ist deutlich gekennzeichnet, sodass Sie ihn selbst konvertieren können. 

## Epen
<a name="migrate-data-from-an-on-premises-oracle-database-to-aurora-postgresql-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie die Quell- und Zieldatenbankversionen. |  | DBA | 
| Installieren Sie AWS SCT und die Treiber. |  | DBA | 
| Fügen Sie die erforderlichen Benutzer und die Quelldatenbank für AWS SCT-Zuschüsse hinzu und validieren Sie sie. |  | DBA | 
| Erstellen Sie ein AWS SCT-Projekt für den Workload und stellen Sie eine Verbindung zur Quelldatenbank her. |  | DBA | 
| Erstellen Sie einen Bewertungsbericht und bewerten Sie die Machbarkeit. |  | DBA, Besitzer der App | 

### Bereiten Sie die Zieldatenbank vor
<a name="prepare-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Aurora PostgreSQL-kompatible Zieldatenbank. |  | DBA | 
| Extrahieren Sie die Liste der Benutzer, Rollen und Berechtigungen aus der Quelldatenbank. |  | DBA | 
| Ordnen Sie die vorhandenen Datenbankbenutzer den neuen Datenbankbenutzern zu. |  | Besitzer der App | 
| Erstellen Sie Benutzer in der Zieldatenbank. |  | DBA | 
| Wenden Sie Rollen aus dem vorherigen Schritt auf die Aurora PostgreSQL-kompatible Zieldatenbank an. |  | DBA | 
| Überprüfen Sie die Datenbankoptionen, Parameter, Netzwerkdateien und Datenbank-Links aus der Quelldatenbank und bewerten Sie deren Anwendbarkeit auf die Zieldatenbank. |  | DBA, Besitzer der App | 
| Wenden Sie alle relevanten Einstellungen auf die Zieldatenbank an. |  | DBA | 

### Bereiten Sie sich auf die Konvertierung des Datenbankobjektcodes vor
<a name="prepare-for-database-object-code-conversion"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie die AWS SCT-Konnektivität zur Zieldatenbank. |  | DBA | 
| Konvertieren Sie das Schema in AWS SCT und speichern Sie den konvertierten Code als.sql-Datei. |  | DBA, Besitzer der App | 
| Konvertieren Sie manuell alle Datenbankobjekte, die nicht automatisch konvertiert werden konnten. |  | DBA, Besitzer der App | 
| Optimieren Sie die Konvertierung des Datenbankcodes. |  | DBA, Besitzer der App | 
| Teilen Sie die .sql-Datei je nach Objekttyp in mehrere .sql-Dateien auf. |  | DBA, Besitzer der App | 
| Validieren Sie die SQL-Skripts in der Zieldatenbank. |  | DBA, Besitzer der App | 

### Bereiten Sie sich auf die Datenmigration vor
<a name="prepare-for-data-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine AWS DMS-Replikations-Instance. |  | DBA | 
| Erstellen Sie die Quell- und Zielendpunkte.  | Wenn der Datentyp von PKs und von NUMBER in Oracle in BIGINT in PostgreSQL konvertiert FKs wird, sollten Sie das Verbindungsattribut angeben, `numberDataTypeScale=-2` wenn Sie den Quellendpunkt erstellen. | DBA | 

### Daten migrieren — Volllast
<a name="migrate-data-ndash-full-load"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie das Schema und die Tabellen in der Zieldatenbank. |  | DBA | 
|  Erstellen Sie AWS DMS-Volllastaufgaben, indem Sie entweder Tabellen gruppieren oder eine große Tabelle basierend auf der Tabellengröße aufteilen. |  | DBA | 
| Stoppen Sie die Anwendungen in den Oracle-Quelldatenbanken für einen kurzen Zeitraum. |  | Besitzer der App | 
| Stellen Sie sicher, dass die Oracle-Standby-Datenbank mit der Primärdatenbank synchron ist, und beenden Sie die Replikation von der Primärdatenbank zur Standby-Datenbank. |  | DBA, Besitzer der App | 
| Starten Sie Anwendungen in der Oracle-Quelldatenbank. |  | Besitzer der App | 
| Starten Sie die AWS DMS-Volllastaufgaben parallel von der Oracle-Standby-Datenbank zur Aurora PostgreSQL-kompatiblen Datenbank. |  | DBA | 
| Erstellen Sie PKs und sekundäre Indizes, nachdem der vollständige Ladevorgang abgeschlossen ist. |  | DBA | 
| Validieren Sie die Daten. |  | DBA | 

### Daten migrieren — CDC
<a name="migrate-data-ndash-cdc"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie fortlaufende AWS DMS-Replikationsaufgaben, indem Sie eine benutzerdefinierte CDC-Startzeit oder eine Systemänderungsnummer (SCN) angeben, als der Oracle-Standby mit der Primärdatenbank synchronisiert wurde und bevor die Anwendungen in der vorherigen Aufgabe neu gestartet wurden. |  | DBA | 
| Starten Sie AWS DMS-Aufgaben parallel, um laufende Änderungen von der Oracle-Standby-Datenbank in die Aurora PostgreSQL-kompatible Datenbank zu replizieren. |  | DBA | 
| Stellen Sie die Replikation von der Oracle-Primärdatenbank zur Standby-Datenbank wieder her. |  | DBA | 
| Überwachen Sie die Protokolle und beenden Sie die Anwendungen in der Oracle-Datenbank, wenn die Aurora PostgreSQL-kompatible Zieldatenbank fast synchron mit der Oracle-Quelldatenbank ist. |  | DBA, Besitzer der App | 
| Beenden Sie die AWS DMS-Aufgaben, wenn das Ziel vollständig mit der Oracle-Quelldatenbank synchronisiert ist. |  | DBA | 
| Erstellen FKs und validieren Sie die Daten in der Zieldatenbank. |  | DBA | 
| Erstellen Sie Funktionen, Ansichten, Trigger, Sequenzen und andere Objekttypen in der Zieldatenbank. |  | DBA | 
| Wenden Sie Rollenzuweisungen in der Zieldatenbank an. |  | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwenden Sie AWS SCT, um die SQL-Anweisungen im Anwendungscode zu analysieren und zu konvertieren. |  | Besitzer der App | 
| Erstellen Sie neue Anwendungsserver auf AWS. |  | Besitzer der App | 
| Migrieren Sie den Anwendungscode auf die neuen Server. |  | Besitzer der App | 
| Konfigurieren Sie den Anwendungsserver für die Zieldatenbank und die Treiber. |  | Besitzer der App | 
| Korrigieren Sie jeglichen Code, der für die Quelldatenbank-Engine in der Anwendung spezifisch ist. |  | Besitzer der App | 
| Optimieren Sie den Anwendungscode für die Zieldatenbank. |  | Besitzer der App | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verweisen Sie den neuen Anwendungsserver auf die Zieldatenbank. |  | DBA, Besitzer der App | 
| Führen Sie Plausibilitätsprüfungen durch. |  | DBA, Besitzer der App | 
| Geh live. |  | DBA, Besitzer der App | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie temporäre AWS-Ressourcen herunter. |  | DBA, Systemadministrator | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA, Besitzer der App | 
| Erfassen Sie Kennzahlen zur Zeit bis zur Migration, zum Prozentsatz der manuellen Nutzung im Vergleich zu den Tools, zu Kosteneinsparungen und ähnlichen Daten. |  | DBA, Besitzer der App | 
| Schließen Sie das Projekt ab und geben Sie Feedback. |  | DBA, Besitzer der App | 

## Zugehörige Ressourcen
<a name="migrate-data-from-an-on-premises-oracle-database-to-aurora-postgresql-resources"></a>

**Referenzen**
+ [PostgreSQL-kompatibel mit Oracle Database zu Aurora: Leitfaden zur Migration](https://d1.awsstatic.com/whitepapers/Migration/oracle-database-amazon-aurora-postgresql-migration-playbook.pdf) 
+ [Migration einer Amazon RDS for Oracle Database zu Amazon Aurora MySQL](https://docs.aws.amazon.com/dms/latest/sbs/chap-rdsoracle2aurora.html)
+ [AWS DMS-Webseite](https://aws.amazon.com/dms/)
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
+ [AWS SCT-Webseite](https://aws.amazon.com/dms/schema-conversion-tool/)
+ [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ [Migrieren Sie von Oracle zu Amazon Aurora](https://aws.amazon.com/getting-started/projects/migrate-oracle-to-amazon-aurora/)

**Tutorials**
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/) 
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)
+ [ Step-by-StepExemplarische Vorgehensweisen zum AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/sbs/dms-sbs-welcome.html)

# Migrieren Sie mithilfe von AWS DMS von SAP ASE zu Amazon RDS for SQL Server
<a name="migrate-from-sap-ase-to-amazon-rds-for-sql-server-using-aws-dms"></a>

*Amit Kumar, Amazon Web Services*

## Zusammenfassung
<a name="migrate-from-sap-ase-to-amazon-rds-for-sql-server-using-aws-dms-summary"></a>

Dieses Muster bietet Anleitungen für die Migration einer SAP Adaptive Server Enterprise (ASE) -Datenbank auf eine Amazon Relational Database Service (Amazon RDS) -DB-Instance, auf der Microsoft SQL Server ausgeführt wird. Die Quelldatenbank kann sich in einem lokalen Rechenzentrum oder auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance befinden. Das Muster verwendet AWS Database Migration Service (AWS DMS) zur Migration von Daten und (optional) Tools zur Computer-Aided Software Engineering (CASE) zur Konvertierung des Datenbankschemas. 

## Voraussetzungen und Einschränkungen
<a name="migrate-from-sap-ase-to-amazon-rds-for-sql-server-using-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine SAP ASE-Datenbank in einem lokalen Rechenzentrum oder auf einer Instanz EC2 
+ Eine Amazon RDS for SQL Server Server-Zieldatenbank, die läuft

**Einschränkungen**
+ Größenbeschränkung der Datenbank: 64 TB

**Produktversionen**
+ Nur SAP ASE-Version 15.7 oder 16.x. Aktuelle Informationen finden Sie unter [Verwenden einer SAP-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SAP.html).
+ Für Amazon RDS-Zieldatenbanken unterstützt AWS DMS [Microsoft SQL Server-Versionen auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_SQLServer.html#SQLServer.Concepts.General.VersionSupport) für die Enterprise-, Standard-, Web- und Express-Editionen. Aktuelle Informationen zu unterstützten Versionen finden Sie in der [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.SQLServer.html). Wir empfehlen Ihnen, die neueste Version von AWS DMS zu verwenden, um die umfassendste Version von Versionen und Funktionen zu erhalten.  

## Architektur
<a name="migrate-from-sap-ase-to-amazon-rds-for-sql-server-using-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ Eine SAP ASE-Datenbank, die sich vor Ort oder auf einer EC2 Amazon-Instance befindet

**Zieltechnologie-Stack**
+ Eine Amazon RDS for SQL Server Server-DB-Instance

**Quell- und Zielarchitektur**

*Von einer SAP ASE-Datenbank auf Amazon EC2 zu einer Amazon RDS for SQL Server-DB-Instance:*

![\[Zielarchitektur für SAP ASE auf Amazon EC2 bis Amazon RDS for SQL Server\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/5ca697a2-9ca3-4231-b457-c1dc59ada5f1/images/957bdcf0-ab58-4b6d-a71a-d0ecbc31822c.png)


*Von einer lokalen SAP ASE-Datenbank zu einer Amazon RDS for SQL Server-DB-Instance:*

![\[Zielarchitektur für lokale SAP ASE zu Amazon RDS for SQL Server\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/5ca697a2-9ca3-4231-b457-c1dc59ada5f1/images/65aab2f5-0e63-4c34-97e2-cd4ac23751a4.png)


## Tools
<a name="migrate-from-sap-ase-to-amazon-rds-for-sql-server-using-aws-dms-tools"></a>
+ [AWS Database Migration Service](https://docs.aws.amazon.com/dms/) (AWS DMS) ist ein Webservice, mit dem Sie Daten aus Ihrer lokalen Datenbank, auf einer Amazon RDS-DB-Instance oder in einer Datenbank auf einer Instance in eine Datenbank auf einem AWS-Service wie Amazon RDS for SQL Server oder einer EC2 EC2 Instance migrieren können. Sie können eine Datenbank auch von einem AWS-Service zu einer lokalen Datenbank migrieren. Sie können Daten zwischen heterogenen oder homogenen Datenbank-Engines migrieren.
+ [Für Schemakonvertierungen können Sie optional [Erwin Data Modeler](https://erwin.com/products/erwin-data-modeler/) oder SAP verwenden. PowerDesigner](https://www.sap.com/products/technology-platform/powerdesigner-data-modeling-tools.html)

## Epen
<a name="migrate-from-sap-ase-to-amazon-rds-for-sql-server-using-aws-dms-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie die Quell- und Zieldatenbankversionen. |  | DBA | 
| Identifizieren Sie die Speicheranforderungen (Speichertyp und Kapazität). |  | DBA, SysAdmin | 
| Wählen Sie den richtigen Instanztyp auf der Grundlage von Kapazität, Speicherfunktionen und Netzwerkfunktionen aus. |  | DBA, SysAdmin | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken. |  | DBA, SysAdmin | 
| Identifizieren Sie die Strategie zur Anwendungsmigration. |  | DBA SysAdmin, Besitzer der App | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine virtuelle private Cloud (VPC) und Subnetze. |  | SysAdmin | 
| Erstellen Sie Sicherheitsgruppen und Netzwerkzugriffskontrolllisten ()ACLs. |  | SysAdmin | 
| Konfigurieren und starten Sie eine Amazon RDS-DB-Instance. |  | SysAdmin | 

### Daten migrieren — Option 1
<a name="migrate-data---option-1"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie das Datenbankschema manuell oder verwenden Sie ein CASE-Tool wie Erwin Data Modeler oder SAP. PowerDesigner |  | DBA | 

### Daten migrieren — Option 2
<a name="migrate-data---option-2"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie Daten mit AWS DMS. |  | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der Strategie zur Anwendungsmigration. |  | DBA SysAdmin, Besitzer der App | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die Anwendungsclients auf die neue Infrastruktur um. |  | DBA SysAdmin, Besitzer der App | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie die temporären AWS-Ressourcen herunter. |  | DBA, SysAdmin | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA SysAdmin, Besitzer der App | 
| Erfassen Sie Kennzahlen wie die Zeit bis zur Migration, den Prozentsatz manueller Aufgaben im Vergleich zu automatisierten Aufgaben und Kosteneinsparungen. |  | DBA SysAdmin, Besitzer der App | 
| Schließen Sie das Projekt ab und geben Sie Feedback. |  | DBA SysAdmin, Besitzer der App | 

## Zugehörige Ressourcen
<a name="migrate-from-sap-ase-to-amazon-rds-for-sql-server-using-aws-dms-resources"></a>

**Referenzen**
+ [AWS DMS-Webseite](https://aws.amazon.com/dms/)
+ [Amazon RDS — Preisgestaltung](https://aws.amazon.com/rds/pricing/)
+ [Verwenden einer SAP ASE-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SAP.html)
+ [Einschränkungen für RDS Custom for SQL Server](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/custom-reqs-limits-MS.html)

**Tutorials und Videos**
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)
+ [AWS DMS (Video)](https://www.youtube.com/watch?v=zb4GcjEdl8U) 
+ [Amazon RDS (Video)](https://www.youtube.com/watch?v=igRfulrrYCo) 

# Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mit AWS DMS zu Amazon Redshift
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-dms"></a>

*Marcelo Fernandes, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-dms-summary"></a>

Dieses Muster bietet Anleitungen für die Migration einer lokalen Microsoft SQL Server-Datenbank zu Amazon Redshift mithilfe von AWS Data Migration Service (AWS DMS). 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Microsoft SQL Server-Quelldatenbank in einem lokalen Rechenzentrum
+ Erledigte Voraussetzungen für die Verwendung einer Amazon Redshift Redshift-Datenbank als Ziel für AWS DMS, wie in der [AWS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Redshift.html#CHAP_Target.Redshift.Prerequisites) DMS-Dokumentation beschrieben

**Produktversionen**
+ SQL Server 2005-2019, Enterprise, Standard, Workgroup, Developer und Web Editionen. Die aktuelle Liste der unterstützten Versionen finden Sie in der AWS-Dokumentation [unter Verwenden einer Microsoft SQL Server-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SQLServer.html). 

## Architektur
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ Eine lokale Microsoft SQL Server-Datenbank 

**Zieltechnologie-Stack**
+ Amazon Redshift

**Architektur der Datenmigration**

 

![\[Architektur für die Migration einer lokalen SQL Server-Datenbank zu Amazon Redshift mithilfe von AWS DMS\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/65b2be1b-740e-4d4d-99a8-f77c4ea6553d/images/3a094bf2-be31-4d83-8dd2-9dc078321055.png)


## Tools
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-dms-tools"></a>
+ [AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) ist ein Datenmigrationsservice, der verschiedene Arten von Quell- und Zieldatenbanken unterstützt. Informationen zu den Microsoft SQL Server-Datenbankversionen und -Editionen, die für die Verwendung mit AWS DMS unterstützt werden, finden Sie [unter Verwenden einer Microsoft SQL Server-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SQLServer.html) in der AWS DMS-Dokumentation. Wenn AWS DMS Ihre Quelldatenbank nicht unterstützt, müssen Sie eine alternative Methode für die Datenmigration auswählen.

## Epen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-dms-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie die Quell- und Zieldatenbankversion und die Engine. |  | DBA | 
| Identifizieren Sie die Hardwareanforderungen für die Zielserverinstanz. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Speicheranforderungen (Speichertyp und Kapazität). |  | DBA, Systemadministrator | 
| Wählen Sie den richtigen Instanztyp auf der Grundlage von Kapazität, Speicherfunktionen und Netzwerkfunktionen aus. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Strategie zur Anwendungsmigration. |  | DBA, App-Besitzer, Systemadministrator | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer Virtual Private Cloud (VPC). | Weitere Informationen finden Sie in der AWS-Dokumentation unter [Arbeiten mit einer DB-Instance in einer VPC](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_VPC.WorkingWithRDSInstanceinaVPC.html). | Systemadministrator | 
| Erstellen Sie Sicherheitsgruppen. |  | Systemadministrator | 
| Konfigurieren und starten Sie einen Amazon Redshift Redshift-Cluster. | Weitere Informationen finden Sie unter [Erstellen eines Amazon Redshift Redshift-Beispiel-Clusters in der Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/gsg/rs-gsg-launch-sample-cluster.html) Redshift-Dokumentation. | DBA, Systemadministrator | 

### Daten migrieren
<a name="migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie die Daten mithilfe von AWS DMS aus der Microsoft SQL Server-Datenbank. |  | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der Strategie zur Anwendungsmigration. |  | DBA, App-Besitzer, Systemadministrator | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die Anwendungsclients auf die neue Infrastruktur um. |  | DBA, Besitzer der App, Systemadministrator | 

### Schließen Sie das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie die temporären Ressourcen herunter. |  | DBA, Systemadministrator | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA, App-Besitzer, Systemadministrator | 
| Erfassen Sie Kennzahlen wie die Zeit bis zur Migration, den Prozentsatz manueller Aufgaben im Vergleich zu automatisierten Aufgaben und Kosteneinsparungen. |  | DBA, App-Besitzer, Systemadministrator | 
| Schließen Sie das Projekt ab und geben Sie Feedback. |  | DBA, App-Besitzer, Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-dms-resources"></a>

**Referenzen**
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/index.html)
+ [Amazon Redshift Redshift-Dokumentation](https://docs.aws.amazon.com/redshift/)
+ [Amazon Redshift — Preise](https://aws.amazon.com/redshift/pricing/)

**Tutorials und Videos**
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Erste Schritte mit Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/gsg/getting-started.html)
+ [Verwenden einer Amazon Redshift Redshift-Datenbank als Ziel für den AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Redshift.html)
+ [AWS DMS (Video)](https://www.youtube.com/watch?v=zb4GcjEdl8U) 

# Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mithilfe von AWS SCT-Datenextraktionsagenten zu Amazon Redshift
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-sct-data-extraction-agents"></a>

*Neha Thakur, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-sct-data-extraction-agents-summary"></a>

Dieses Muster beschreibt die Schritte für die Migration einer lokalen Microsoft SQL Server-Quelldatenbank zu einer Amazon Redshift Redshift-Zieldatenbank mithilfe der Datenextraktionsagenten des AWS Schema Conversion Tool (AWS SCT). Ein Agent ist ein externes Programm, das in AWS SCT integriert ist, die Datentransformation jedoch an anderer Stelle durchführt und in Ihrem Namen mit anderen AWS-Services interagiert.   

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-sct-data-extraction-agents-prereqs"></a>

**Voraussetzungen**
+ Eine Microsoft SQL Server-Quelldatenbank, die für die Data Warehouse-Arbeitslast in einem lokalen Rechenzentrum verwendet wird
+ Ein aktives AWS-Konto

**Produktversionen**
+ Microsoft SQL Server Version 2008 oder höher. Die aktuelle Liste der unterstützten Versionen finden Sie in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html). 

## Architektur
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-sct-data-extraction-agents-architecture"></a>

**Technologie-Stack****: Quelle**
+ Eine lokale Microsoft SQL Server-Datenbank

****Technologie-Stack Target****
+ Amazon Redshift

**Architektur der Datenmigration**

![\[Migrieren einer SQL Server-Datenbank zu Amazon Redshift mithilfe von AWS SCT-Datenextraktionsagenten.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/6975f67a-0705-47b4-a1b8-90aaa2597a04/images/dbff958b-7601-442e-9e23-4d07edd0ccfd.png)


## Tools
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-sct-data-extraction-agents-tools"></a>
+ Das [AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) (AWS SCT) verarbeitet heterogene Datenbankmigrationen, indem es das Quelldatenbankschema und einen Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert, das mit der Zieldatenbank kompatibel ist. Wenn die Quell- und Zieldatenbanken sehr unterschiedlich sind, können Sie einen AWS SCT-Agenten verwenden, um zusätzliche Datentransformationen durchzuführen. Weitere Informationen finden Sie in der AWS-Dokumentation unter [Migrieren von Daten aus einem lokalen Data Warehouse zu Amazon Redshift](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/agents.dw.html).

## Best Practices
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-sct-data-extraction-agents-best-practices"></a>
+ [Bewährte Methoden für AWS SCT](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_BestPractices.html)
+ [Bewährte Methoden für Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/best-practices.html)

## Epen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-sct-data-extraction-agents-epics"></a>

### Bereiten Sie sich auf die Migration vor
<a name="prepare-for-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie die Versionen und Engines der Quell- und Zieldatenbank. |  | DBA | 
| Identifizieren Sie die Hardwareanforderungen für die Zielserverinstanz. |  | DBA, SysAdmin | 
| Identifizieren Sie die Speicheranforderungen (Speichertyp und Kapazität). |  | DBA, SysAdmin | 
| Wählen Sie den richtigen Instanztyp (Kapazität, Speicherfunktionen, Netzwerkfunktionen). |  | DBA, SysAdmin | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken. |  | DBA, SysAdmin | 
| Wählen Sie eine Strategie für die Anwendungsmigration. |  | DBA SysAdmin, Besitzer der App | 

### Infrastruktur konfigurieren
<a name="configure-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine virtuelle private Cloud (VPC) und Subnetze. |  | SysAdmin | 
| Erstellen Sie Sicherheitsgruppen. |  | SysAdmin | 
| Konfigurieren und starten Sie den Amazon Redshift Redshift-Cluster. |  | SysAdmin | 

### Daten migrieren
<a name="migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie die Daten mithilfe der AWS SCT-Datenextraktionsagenten. |  | DBA | 

### Anwendungen migrieren
<a name="migrate-applications"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der ausgewählten Strategie zur Anwendungsmigration. |  | DBA SysAdmin, Besitzer der App | 

### Wechseln Sie zur Zieldatenbank
<a name="cut-over-to-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die Anwendungsclients auf die neue Infrastruktur um. |  | DBA SysAdmin, Besitzer der App | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie temporäre AWS-Ressourcen herunter. |  | DBA, SysAdmin | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA SysAdmin, Besitzer der App | 
| Erfassen Sie Kennzahlen wie die Zeit bis zur Migration, den Prozentsatz manueller Aufgaben im Vergleich zu automatisierten Aufgaben und Kosteneinsparungen. |  | DBA SysAdmin, Besitzer der App | 
| Schließen Sie das Projekt und geben Sie Feedback. |  | DBA SysAdmin, Besitzer der App | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-sct-data-extraction-agents-resources"></a>

**Referenzen**
+ [AWS SCT-Benutzerhandbuch](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ [Verwendung von Datenextraktionsagenten](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/agents.html)
+ [Amazon Redshift — Preise](https://aws.amazon.com/redshift/pricing/)

**Tutorials und Videos**
+ [Erste Schritte mit dem AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_GettingStarted.html)
+ [Erste Schritte mit Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/gsg/getting-started.html)

# Migrieren Sie Legacy-Anwendungen von Oracle Pro\$1C zu ECPG
<a name="migrate-legacy-applications-from-oracle-pro-c-to-ecpg"></a>

*Sai Parthasaradhi und Mahesh Balumuri, Amazon Web Services*

## Zusammenfassung
<a name="migrate-legacy-applications-from-oracle-pro-c-to-ecpg-summary"></a>

Die meisten älteren Anwendungen mit eingebettetem SQL-Code verwenden den Oracle Pro\$1C-Precompiler für den Zugriff auf die Datenbank. Wenn Sie diese Oracle-Datenbanken zu Amazon Relational Database Service (Amazon RDS) for PostgreSQL oder Amazon Aurora PostgreSQL-Compatible Edition migrieren, müssen Sie Ihren Anwendungscode in ein Format konvertieren, das mit dem Precompiler in PostgreSQL kompatibel ist, das als ECPG bezeichnet wird. Dieses Muster beschreibt, wie Oracle Pro\$1C-Code in sein Äquivalent in PostgreSQL ECPG konvertiert wird. 

[Weitere Informationen zu Pro\$1C finden Sie in der Oracle-Dokumentation.](https://docs.oracle.com/cd/E11882_01/appdev.112/e10825/pc_01int.htm#i2415) Eine kurze Einführung in ECPG finden Sie im Abschnitt [Zusätzliche](#migrate-legacy-applications-from-oracle-pro-c-to-ecpg-additional) Informationen.

## Voraussetzungen und Einschränkungen
<a name="migrate-legacy-applications-from-oracle-pro-c-to-ecpg-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Amazon RDS for PostgreSQL- oder Aurora PostgreSQL-kompatible Datenbank
+ Eine Oracle-Datenbank, die lokal läuft

## Tools
<a name="migrate-legacy-applications-from-oracle-pro-c-to-ecpg-tools"></a>
+ Die im nächsten Abschnitt aufgeführten PostgreSQL-Pakete.
+ [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-welcome.html) — Die AWS-Befehlszeilenschnittstelle (AWS CLI) ist ein Open-Source-Tool für die Interaktion mit AWS-Services über Befehle in Ihrer Befehlszeilen-Shell. Mit minimaler Konfiguration können Sie AWS-CLI-Befehle, die Funktionen implementieren, die der von der browserbasierten AWS-Managementkonsole bereitgestellten Funktionen entsprechen, von einer Befehlszeile aus ausführen.

## Epen
<a name="migrate-legacy-applications-from-oracle-pro-c-to-ecpg-epics"></a>

### Stellen Sie die Build-Umgebung auf CentOS oder RHEL ein
<a name="set-the-build-environment-on-centos-or-rhel"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie PostgreSQL-Pakete. | Installieren Sie die erforderlichen PostgreSQL-Pakete mithilfe der folgenden Befehle.<pre>yum update -y<br />yum install -y yum-utils<br />rpm -ivh https://download.postgresql.org/pub/repos/yum/reporpms/EL-8-x86_64/pgdg-redhat-repo-latest.noarch.rpm<br />dnf -qy module disable postgresql</pre> | App-Entwickler, Ingenieur DevOps  | 
| Installieren Sie die Header-Dateien und Bibliotheken. | Installieren Sie das `postgresql12-devel` Paket, das Header-Dateien und Bibliotheken enthält, mithilfe der folgenden Befehle. Installieren Sie das Paket sowohl in der Entwicklungs- als auch in der Laufzeitumgebung, um Fehler in der Laufzeitumgebung zu vermeiden.<pre>dnf -y install postgresql12-devel<br />yum install ncompress zip ghostscript jq unzip wget git -y</pre>Führen Sie nur für die Entwicklungsumgebung auch die folgenden Befehle aus.<pre>yum install zlib-devel make -y<br />ln -s /usr/pgsql-12/bin/ecpg /usr/bin/</pre> | App-Entwickler, DevOps Ingenieur | 
| Konfigurieren Sie die Umgebungspfadvariable. | Legen Sie den Umgebungspfad für PostgreSQL-Clientbibliotheken fest.<pre>export PATH=$PATH:/usr/pgsql-12/bin</pre> | App-Entwickler, Ingenieur DevOps  | 
| Installieren Sie bei Bedarf zusätzliche Software. | Falls erforderlich, installieren Sie **PGLoader als** Ersatz für **SQL\$1Loader** in Oracle.<pre>wget -O /etc/yum.repos.d/pgloader-ccl.repo https://dl.packager.io/srv/opf/pgloader-ccl/master/installer/el/7.repo<br />yum install pgloader-ccl -y<br />ln -s /opt/pgloader-ccl/bin/pgloader /usr/bin/</pre>Wenn Sie Java-Anwendungen von Pro\$1C-Modulen aus aufrufen, installieren Sie Java.<pre>yum install java -y</pre>Installieren Sie **Ant**, um den Java-Code zu kompilieren.<pre>yum install ant -y</pre> | App-Entwickler, DevOps Ingenieur | 
| Installieren Sie den AWS CLI. | Installieren Sie die AWS-CLI, um Befehle zur Interaktion mit AWS-Services wie AWS Secrets Manager und Amazon Simple Storage Service (Amazon S3) von Ihren Anwendungen aus auszuführen.<pre>cd /tmp/<br />curl "https://awscli.amazonaws.com/awscli-exe-linux-x86_64.zip" -o "awscliv2.zip"<br />unzip awscliv2.zip<br />./aws/install -i /usr/local/aws-cli -b /usr/local/bin --update</pre> | App-Entwickler, DevOps Ingenieur | 
| Identifizieren Sie die Programme, die konvertiert werden sollen. | Identifizieren Sie die Anwendungen, die Sie von Pro\$1C nach ECPG konvertieren möchten. | App-Entwickler, App-Besitzer | 

### Pro\$1C-Code nach ECPG konvertieren
<a name="convert-pro-c-code-to-ecpg"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Unerwünschte Header entfernen. | Entfernen Sie die `include ` Header, die in PostgreSQL nicht erforderlich sind, wie`oci.h`, und`oratypes`. `sqlda` | App-Besitzer, App-Entwickler | 
| Variablendeklarationen aktualisieren. | Fügen Sie `EXEC SQL` Anweisungen für alle Variablendeklarationen hinzu, die als Hostvariablen verwendet werden.Entfernen Sie die `EXEC SQL VAR` Deklarationen wie die folgenden aus Ihrer Anwendung.<pre>EXEC SQL VAR query IS STRING(2048);</pre> | App-Entwickler, App-Besitzer | 
| Aktualisieren Sie die ROWNUM-Funktionalität. | Die `ROWNUM` Funktion ist in PostgreSQL nicht verfügbar. Ersetzen Sie dies in SQL-Abfragen durch die `ROW_NUMBER` Fensterfunktion.Pro\$1C-Code:<pre>SELECT SUBSTR(RTRIM(FILE_NAME,'.txt'),12) INTO :gcpclFileseq  <br />FROM   (SELECT FILE_NAME <br />FROM  DEMO_FILES_TABLE <br />WHERE FILE_NAME    LIKE '%POC%' <br />ORDER BY FILE_NAME DESC) FL2 <br />WHERE ROWNUM <=1 ORDER BY ROWNUM;</pre>ECPG-Kode:<pre>SELECT SUBSTR(RTRIM(FILE_NAME,'.txt'),12) INTO :gcpclFileseq  <br />FROM   (SELECT FILE_NAME , ROW_NUMBER() OVER (ORDER BY FILE_NAME DESC) AS ROWNUM<br />FROM  demo_schema.DEMO_FILES_TABLE <br />WHERE FILE_NAME    LIKE '%POC%'<br />ORDER BY FILE_NAME DESC) FL2 <br />WHERE ROWNUM <=1 ORDER BY ROWNUM; </pre> | App-Entwickler, App-Besitzer | 
| Aktualisieren Sie die Funktionsparameter, um Aliasvariablen zu verwenden. | In PostgreSQL können Funktionsparameter nicht als Hostvariablen verwendet werden. Überschreiben Sie sie mithilfe einer Aliasvariablen.Pro\$1C-Code:<pre>int processData(int referenceId){<br />  EXEC SQL char col_val[100];<br />  EXEC SQL select column_name INTO :col_val from table_name where col=:referenceId;<br />}</pre>ECPG-Kode:<pre>int processData(int referenceIdParam){<br />  EXEC SQL int referenceId = referenceIdParam;<br />  EXEC SQL char col_val[100];<br />  EXEC SQL select column_name INTO :col_val from table_name where col=:referenceId;<br />}</pre> | App-Entwickler, App-Besitzer | 
| Aktualisieren Sie die Strukturtypen. | Definieren Sie `struct` Typen in `EXEC SQL BEGIN` und `END` Blöcke mit`typedef`, wenn die `struct` Typvariablen als Hostvariablen verwendet werden. Wenn die `struct` Typen in Header (`.h`) -Dateien definiert sind, schließen Sie die Dateien mit `EXEC SQL` Include-Anweisungen ein.Pro\$1C-Code:Header-Datei () `demo.h`<pre>struct s_partition_ranges<br />{<br /> char   sc_table_group[31];<br /> char   sc_table_name[31];<br /> char   sc_range_value[10];<br />}; <br />struct s_partition_ranges_ind<br />{<br />  short    ss_table_group;<br />  short    ss_table_name;<br />  short    ss_range_value;<br />}; </pre>ECPG-Code:Header-Datei () `demo.h`<pre>EXEC SQL BEGIN DECLARE SECTION;<br />typedef struct <br />{<br />  char   sc_table_group[31];<br />  char   sc_table_name[31];<br />  char   sc_range_value[10];<br />} s_partition_ranges; <br />typedef struct <br />{<br />  short    ss_table_group;<br />  short    ss_table_name;<br />  short    ss_range_value;<br />} s_partition_ranges_ind; <br />EXEC SQL END DECLARE SECTION;</pre>Pro\$1C-Datei () `demo.pc`<pre>#include "demo.h"<br />struct s_partition_ranges gc_partition_data[MAX_PART_TABLE] ;<br />struct s_partition_ranges_ind gc_partition_data_ind[MAX_PART_TABLE] ;</pre>ECPG-Datei () `demo.pc`<pre>exec sql include "demo.h"<br />EXEC SQL BEGIN DECLARE SECTION;<br />s_partition_ranges gc_partition_data[MAX_PART_TABLE] ;<br />s_partition_ranges_ind gc_partition_data_ind[MAX_PART_TABLE] ;<br />EXEC SQL END DECLARE SECTION;</pre> | App-Entwickler, App-Besitzer | 
| Ändern Sie die Logik, um von Cursorn abzurufen. | Um mithilfe von Array-Variablen mehrere Zeilen aus Cursorn abzurufen, ändern Sie den zu verwendenden Code. `FETCH FORWARD`Pro\$1C-Code:<pre>EXEC SQL char  aPoeFiles[MAX_FILES][FILENAME_LENGTH];<br />EXEC SQL FETCH filename_cursor into :aPoeFiles;</pre>ECPG-Kode:<pre>EXEC SQL char  aPoeFiles[MAX_FILES][FILENAME_LENGTH];<br />EXEC SQL int fetchSize = MAX_FILES;<br />EXEC SQL FETCH FORWARD :fetchSize filename_cursor into :aPoeFiles;</pre> | App-Entwickler, App-Besitzer | 
| Ändern Sie Paketaufrufe, die keine Rückgabewerte haben. | Oracle-Paketfunktionen, die keine Rückgabewerte haben, sollten mit einer Indikatorvariablen aufgerufen werden. Wenn Ihre Anwendung mehrere Funktionen mit demselben Namen enthält oder wenn die Funktionen unbekannter Typen Laufzeitfehler erzeugen, typisieren Sie die Werte in die Datentypen.Pro\$1C-Code:<pre>void ProcessData (char *data , int id)<br />{        <br />        EXEC SQL EXECUTE<br />               BEGIN<br />                  pkg_demo.process_data (:data, :id);                                                                                    <br />               END;<br />       END-EXEC;<br />}</pre>ECPG-Kode:<pre>void ProcessData (char *dataParam, int idParam )<br />{<br />        EXEC SQL char *data = dataParam;<br />        EXEC SQL int id = idParam;<br />        EXEC SQL short rowInd;<br />        EXEC SQL short rowInd = 0;<br />        EXEC SQL SELECT pkg_demo.process_data (<br />                       inp_data => :data::text,<br />                       inp_id => :id<br />               ) INTO :rowInd;<br />}</pre> | App-Entwickler, App-Besitzer | 
| Schreiben Sie SQL\$1CURSOR-Variablen neu. | Schreiben Sie die `SQL_CURSOR` Variable und ihre Implementierung neu.Pro\$1C-Code:<pre>/* SQL Cursor */<br />SQL_CURSOR      demo_cursor;<br />EXEC SQL ALLOCATE :demo_cursor;<br />EXEC SQL EXECUTE<br />  BEGIN<br />      pkg_demo.get_cursor(     <br />        demo_cur=>:demo_cursor<br />      );<br />  END;<br />END-EXEC;</pre>ECPG-Kode:<pre>EXEC SQL DECLARE demo_cursor CURSOR FOR SELECT<br />         * from<br />    pkg_demo.open_filename_rc(<br />            demo_cur=>refcursor<br />          ) ;<br />EXEC SQL char open_filename_rcInd[100]; <br /># As the below function returns cursor_name as <br /># return we need to use char[] type as indicator. <br />EXEC SQL SELECT pkg_demo.get_cursor (<br />        demo_cur=>'demo_cursor'<br />    ) INTO :open_filename_rcInd;</pre> | App-Entwickler, App-Besitzer | 
| Wenden Sie gängige Migrationsmuster an. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-legacy-applications-from-oracle-pro-c-to-ecpg.html) | App-Entwickler, App-Besitzer | 
| Aktivieren Sie das Debugging, falls erforderlich.  | Um das ECPG-Programm im Debug-Modus auszuführen, fügen Sie dem Hauptfunktionsblock den folgenden Befehl hinzu.<pre>ECPGdebug(1, stderr); </pre> | App-Entwickler, App-Besitzer | 

### Kompilieren Sie ECPG-Programme
<a name="compile-ecpg-programs"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine ausführbare Datei für ECPG. | Wenn Sie eine eingebettete SQL C-Quelldatei mit dem Namen haben`prog1.pgc`, können Sie mithilfe der folgenden Befehlsfolge ein ausführbares Programm erstellen.<pre>ecpg prog1.pgc<br />cc -I/usr/local/pgsql/include -c prog1.c<br />cc -o prog1 prog1.o -L/usr/local/pgsql/lib -lecpg</pre> | App-Entwickler, App-Besitzer | 
| Erstellen Sie eine Make-Datei für die Kompilierung. | Erstellen Sie eine Make-Datei, um das ECPG-Programm zu kompilieren, wie in der folgenden Beispieldatei gezeigt.<pre>CFLAGS ::= $(CFLAGS) -I/usr/pgsql-12/include -g -Wall<br />LDFLAGS ::= $(LDFLAGS) -L/usr/pgsql-12/lib -Wl,-rpath,/usr/pgsql-12/lib<br />LDLIBS ::= $(LDLIBS) -lecpg<br />PROGRAMS = test <br />.PHONY: all clean<br />%.c: %.pgc<br />      ecpg $<<br />all: $(PROGRAMS)<br />clean:<br />    rm -f $(PROGRAMS) $(PROGRAMS:%=%.c) $(PROGRAMS:%=%.o)</pre> | App-Entwickler, App-Besitzer | 

### Testen der Anwendung
<a name="test-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Testen Sie den Code. | Testen Sie den konvertierten Anwendungscode, um sicherzustellen, dass er ordnungsgemäß funktioniert. | App-Entwickler, App-Besitzer, Testingenieur | 

## Zugehörige Ressourcen
<a name="migrate-legacy-applications-from-oracle-pro-c-to-ecpg-resources"></a>
+ [ECPG - Eingebettetes SQL in C](https://www.postgresql.org/docs/current/static/ecpg.html) (PostgreSQL-Dokumentation)
+ [Fehlerbehandlung](https://www.postgresql.org/docs/12/ecpg-errors.html) (PostgreSQL-Dokumentation)
+ [Warum den Oracle Pro\$1C/C\$1\$1 Precompiler verwenden](https://docs.oracle.com/cd/E11882_01/appdev.112/e10825/pc_01int.htm#i2415) (Oracle-Dokumentation)

## Zusätzliche Informationen
<a name="migrate-legacy-applications-from-oracle-pro-c-to-ecpg-additional"></a>

PostgreSQL hat einen eingebetteten SQL-Precompiler, ECPG, der dem Oracle Pro\$1C-Precompiler entspricht. ECPG konvertiert C-Programme mit eingebetteten SQL-Anweisungen in Standard-C-Code, indem es die SQL-Aufrufe durch spezielle Funktionsaufrufen ersetzt. Die Ausgabedateien können dann mit jeder C-Compiler-Toolchain verarbeitet werden.

**Eingabe- und Ausgabedateien**

ECPG konvertiert jede Eingabedatei, die Sie in der Befehlszeile angeben, in die entsprechende C-Ausgabedatei. Wenn ein Eingabedateiname keine Dateierweiterung hat, wird .pgc angenommen. Die Erweiterung der Datei wird durch ersetzt, `.c` um den Namen der Ausgabedatei zu erstellen. Sie können jedoch den Standardnamen der Ausgabedatei überschreiben, indem Sie die `-o` Option verwenden.

Wenn Sie einen Bindestrich (`-`) als Namen der Eingabedatei verwenden, liest ECPG das Programm aus der Standardeingabe und schreibt in die Standardausgabe, sofern Sie dies nicht mit der `-o` Option überschreiben.

**Header-Dateien**

Wenn der PostgreSQL-Compiler die vorverarbeiteten C-Codedateien kompiliert, sucht er im PostgreSQL-Verzeichnis nach den ECPG-Header-Dateien. `include` Daher müssen Sie möglicherweise die `-I` Option verwenden, um den Compiler auf das richtige Verzeichnis zu verweisen (z. B.). `-I/usr/local/pgsql/include`

**Bibliotheken**

Programme, die C-Code mit Embedded SQL verwenden, müssen mit der `libecpg` Bibliothek verknüpft werden. Sie können beispielsweise die Linker-Optionen ` -L/usr/local/pgsql/lib -lecpg` verwenden.

Konvertierte ECPG-Anwendungen rufen Funktionen in der `libpq` Bibliothek über die Embedded SQL-Bibliothek (`ecpglib`) auf und kommunizieren mithilfe des Standardprotokolls mit dem PostgreSQL-Server. frontend/backend 

# Migrieren Sie virtuell generierte Spalten von Oracle nach PostgreSQL
<a name="migrate-virtual-generated-columns-from-oracle-to-postgresql"></a>

*Veeranjaneyulu Grandhi, Rajesh Madiwale und Ramesh Pathuri, Amazon Web Services*

## Zusammenfassung
<a name="migrate-virtual-generated-columns-from-oracle-to-postgresql-summary"></a>

In Version 11 und früher bietet PostgreSQL keine Funktion, die direkt einer virtuellen Oracle-Spalte entspricht. Der Umgang mit virtuell generierten Spalten bei der Migration von Oracle Database zu PostgreSQL Version 11 oder früher ist aus zwei Gründen schwierig: 
+ Virtuelle Spalten sind während der Migration nicht sichtbar.
+ PostgreSQL unterstützt den `generate` Ausdruck vor Version 12 nicht.

Es gibt jedoch Problemumgehungen, um ähnliche Funktionen zu emulieren. Wenn Sie AWS Database Migration Service (AWS DMS) verwenden, um Daten von Oracle Database zu PostgreSQL Version 11 und früher zu migrieren, können Sie Triggerfunktionen verwenden, um die Werte in virtuell generierten Spalten aufzufüllen. Dieses Muster enthält Beispiele für Oracle-Datenbank- und PostgreSQL-Code, den Sie für diesen Zweck verwenden können. Auf AWS können Sie Amazon Relational Database Service (Amazon RDS) für PostgreSQL oder Amazon Aurora PostgreSQL-Compatible Edition für Ihre PostgreSQL-Datenbank verwenden.

Ab PostgreSQL Version 12 werden generierte Spalten unterstützt. Generierte Spalten können entweder spontan aus anderen Spaltenwerten berechnet oder berechnet und gespeichert werden. [Von PostgreSQL generierte Spalten](https://www.postgresql.org/docs/12/ddl-generated-columns.html) ähneln virtuellen Oracle-Spalten.

## Voraussetzungen und Einschränkungen
<a name="migrate-virtual-generated-columns-from-oracle-to-postgresql-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Oracle-Quelldatenbank 
+ PostgreSQL-Zieldatenbanken (auf Amazon RDS für PostgreSQL oder Aurora PostgreSQL-kompatibel)
+ [Erfahrung in der PL/PgSQL-Codierung](https://www.postgresql.org/docs/current/plpgsql.html)

**Einschränkungen**
+ Gilt nur für PostgreSQL-Versionen vor Version 12. 
+ Gilt für Oracle Database Version 11g oder höher.
+ Virtuelle Spalten werden in Datenmigrationstools nicht unterstützt.
+ Gilt nur für Spalten, die in derselben Tabelle definiert sind.
+ Wenn sich eine virtuell generierte Spalte auf eine deterministische benutzerdefinierte Funktion bezieht, kann sie nicht als Partitionierungsschlüsselspalte verwendet werden.
+ Die Ausgabe des Ausdrucks muss ein Skalarwert sein. Es kann keinen von Oracle angegebenen Datentyp, einen benutzerdefinierten Typ, oder zurückgeben. `LOB` `LONG RAW`
+ Indizes, die für virtuelle Spalten definiert sind, entsprechen funktionsbasierten Indizes in PostgreSQL.
+ Tabellenstatistiken müssen gesammelt werden.

## Tools
<a name="migrate-virtual-generated-columns-from-oracle-to-postgresql-tools"></a>
+ [pgAdmin 4](https://www.pgadmin.org/) ist ein Open-Source-Verwaltungstool für PostgreSQL. Dieses Tool bietet eine grafische Oberfläche, die die Erstellung, Wartung und Verwendung von Datenbankobjekten vereinfacht.
+ [Oracle SQL Developer](https://www.oracle.com/database/sqldeveloper/) ist eine kostenlose, integrierte Entwicklungsumgebung für die Arbeit mit SQL in Oracle-Datenbanken sowohl in herkömmlichen als auch in Cloud-Umgebungen. 

## Epen
<a name="migrate-virtual-generated-columns-from-oracle-to-postgresql-epics"></a>

### Erstellen Sie Quell- und Zieldatenbanktabellen
<a name="create-source-and-target-database-tables"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Oracle-Datenbankquelltabelle. | Erstellen Sie in Oracle Database eine Tabelle mit virtuell generierten Spalten, indem Sie die folgende Anweisung verwenden.<pre>CREATE TABLE test.generated_column<br />( CODE NUMBER,<br />STATUS VARCHAR2(12) DEFAULT 'PreOpen',<br />FLAG CHAR(1) GENERATED ALWAYS AS (CASE UPPER(STATUS) WHEN 'OPEN' THEN 'N' ELSE 'Y' END) VIRTUAL VISIBLE<br />);</pre>In dieser Quelltabelle werden die Daten in der `STATUS` Spalte über AWS DMS in die Zieldatenbank migriert. Die `FLAG` Spalte wird jedoch mithilfe von `generate by` Funktionen gefüllt, sodass diese Spalte für AWS DMS während der Migration nicht sichtbar ist. Um die Funktionalität von zu implementieren`generated by`, müssen Sie Trigger und Funktionen in der Zieldatenbank verwenden, um die Werte in der `FLAG` Spalte aufzufüllen, wie im nächsten Epic gezeigt. | DBA, App-Entwickler | 
| Erstellen Sie eine PostgreSQL-Zieltabelle auf AWS. | Erstellen Sie mithilfe der folgenden Anweisung eine PostgreSQL-Tabelle auf AWS.<pre>CREATE TABLE test.generated_column<br />(<br />    code integer not null,<br />    status character varying(12) not null ,<br />    flag character(1)<br />);</pre>In dieser Tabelle ist die `status` Spalte eine Standardspalte. Bei der `flag` Spalte handelt es sich um eine generierte Spalte, die auf den Daten in der `status` Spalte basiert. | DBA, App-Entwickler | 

### Erstellen Sie eine Triggerfunktion zur Behandlung der virtuellen Spalte in PostgreSQL
<a name="create-a-trigger-function-to-handle-the-virtual-column-in-postgresql"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen PostgreSQL-Trigger. | Erstellen Sie in PostgreSQL einen Trigger.<pre>CREATE TRIGGER tgr_gen_column<br />AFTER INSERT OR UPDATE OF status ON test.generated_column<br />FOR EACH ROW <br />EXECUTE FUNCTION test.tgf_gen_column();</pre> | DBA, App-Entwickler | 
| Erstellen Sie eine PostgreSQL-Triggerfunktion. | Erstellen Sie in PostgreSQL eine Funktion für den Trigger. Diese Funktion füllt eine virtuelle Spalte, die von der Anwendung oder AWS DMS eingefügt oder aktualisiert wird, und validiert die Daten.<pre>CREATE OR REPLACE FUNCTION test.tgf_gen_column() RETURNS trigger AS $VIRTUAL_COL$<br />BEGIN<br />IF (TG_OP = 'INSERT') THEN<br />IF (NEW.flag IS NOT NULL) THEN<br />RAISE EXCEPTION 'ERROR: cannot insert into column "flag"' USING DETAIL = 'Column "flag" is a generated column.';<br />END IF;<br />END IF;<br />IF (TG_OP = 'UPDATE') THEN<br />IF (NEW.flag::VARCHAR != OLD.flag::varchar) THEN<br />RAISE EXCEPTION 'ERROR: cannot update column "flag"' USING DETAIL = 'Column "flag" is a generated column.';<br />END IF;<br />END IF;<br />IF TG_OP IN ('INSERT','UPDATE') THEN<br />IF (old.flag is NULL) OR (coalesce(old.status,'') != coalesce(new.status,'')) THEN<br />UPDATE test.generated_column<br />SET flag = (CASE UPPER(status) WHEN 'OPEN' THEN 'N' ELSE 'Y' END)<br />WHERE code = new.code;<br />END IF;<br />END IF;<br />RETURN NEW;<br />END<br />$VIRTUAL_COL$ LANGUAGE plpgsql;</pre> | DBA, App-Entwickler | 

### Testen Sie die Datenmigration mithilfe von AWS DMS
<a name="test-data-migration-by-using-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Replikationsinstanz. | Folgen Sie den [Anweisungen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_ReplicationInstance.Creating.html) in der AWS DMS-Dokumentation, um eine Replikationsinstanz zu erstellen. Die Replikationsinstanz sollte sich in derselben Virtual Private Cloud (VPC) wie Ihre Quell- und Zieldatenbanken befinden. | DBA, App-Entwickler | 
| Erstellen Sie Quell- und Zielendpunkte. | Folgen Sie den [Anweisungen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Endpoints.Creating.html) in der AWS DMS-Dokumentation, um die Endpoints zu erstellen. | DBA, App-Entwickler | 
| Testen Sie die Endpunktverbindungen. | Sie können die Endpunktverbindungen testen, indem Sie die VPC und die Replikationsinstanz angeben und **Test ausführen** wählen. | DBA, App-Entwickler | 
| Erstellen und starten Sie eine Vollladeaufgabe. | Anweisungen finden Sie in der AWS DMS-Dokumentation unter Aufgaben [erstellen und Aufgabeneinstellungen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.Creating.html) [unter Vollladen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.CustomizingTasks.TaskSettings.FullLoad.html). | DBA, App-Entwickler | 
| Überprüfen Sie die Daten für die virtuelle Spalte. | Vergleichen Sie die Daten in der virtuellen Spalte in der Quell- und Zieldatenbank. Sie können die Daten manuell validieren oder ein Skript für diesen Schritt schreiben. | DBA, App-Entwickler | 

## Zugehörige Ressourcen
<a name="migrate-virtual-generated-columns-from-oracle-to-postgresql-resources"></a>
+ [Erste Schritte mit AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html) (AWS DMS-Dokumentation)
+ [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) (AWS DMS-Dokumentation)
+ [Verwenden einer PostgreSQL-Datenbank als Ziel für AWS DMS (AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html))
+ [Generierte Spalten in PostgreSQL (PostgreSQL-Dokumentation](https://www.postgresql.org/docs/12/ddl-generated-columns.html))
+ [Triggerfunktionen](https://www.postgresql.org/docs/12/plpgsql-trigger.html) (PostgreSQL-Dokumentation)
+ [Virtuelle Spalten](https://docs.oracle.com/database/121/SQLRF/statements_7002.htm#SQLRF01402) in der Oracle-Datenbank (Oracle-Dokumentation)

# Richten Sie die Oracle UTL\$1FILE-Funktionalität auf Aurora PostgreSQL-Compatible ein
<a name="set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible"></a>

*Rakesh Raghav und Anuradha Chintha, Amazon Web Services*

## Zusammenfassung
<a name="set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible-summary"></a>

Im Rahmen Ihrer Migration von Oracle zu Amazon Aurora PostgreSQL-Compatible Edition in der Amazon Web Services (AWS) Cloud können Sie auf mehrere Herausforderungen stoßen. Beispielsweise ist die Migration von Code, der auf dem `UTL_FILE` Oracle-Hilfsprogramm basiert, immer eine Herausforderung. In Oracle PL/SQL wird das `UTL_FILE` Paket in Verbindung mit dem zugrunde liegenden Betriebssystem für Dateioperationen wie Lesen und Schreiben verwendet. Das `UTL_FILE` Hilfsprogramm funktioniert sowohl für Server- als auch für Client-Computersysteme. 

Amazon Aurora PostgreSQL-Compatible ist ein Angebot für verwaltete Datenbanken. Aus diesem Grund ist es nicht möglich, auf Dateien auf dem Datenbankserver zuzugreifen. Dieses Muster führt Sie durch die Integration von Amazon Simple Storage Service (Amazon S3) und Amazon Aurora PostgreSQL-kompatibel, um einen Teil der Funktionalität zu erreichen. `UTL_FILE` Mit dieser Integration können wir Dateien erstellen und verwenden, ohne Tools oder Dienste von Drittanbietern zum Extrahieren, Transformieren und Laden (ETL) zu verwenden.

Optional können Sie CloudWatch Amazon-Überwachung und Amazon SNS-Benachrichtigungen einrichten.

Wir empfehlen, diese Lösung gründlich zu testen, bevor Sie sie in einer Produktionsumgebung implementieren.

## Voraussetzungen und Einschränkungen
<a name="set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Fachwissen zum AWS Database Migration Service (AWS DMS)
+ Fachkenntnisse in der Codierung PL/pgSQL 
+ Ein Amazon Aurora PostgreSQL-kompatibler Cluster
+ Ein S3-Bucket

**Einschränkungen**

Dieses Muster bietet nicht die Funktionalität, um das Oracle-Hilfsprogramm zu ersetzen. `UTL_FILE` Die Schritte und der Beispielcode können jedoch weiter verbessert werden, um Ihre Ziele bei der Datenbankmodernisierung zu erreichen.

**Produktversionen**
+ Amazon Aurora PostgreSQL-kompatible Ausgabe 11.9

## Architektur
<a name="set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible-architecture"></a>

**Zieltechnologie-Stack**
+ Amazon Aurora PostgreSQL-kompatibel
+ Amazon CloudWatch
+ Amazon-Simple-Notification-Service (Amazon-SNS)
+ Amazon S3

**Zielarchitektur**

Das folgende Diagramm zeigt eine allgemeine Darstellung der Lösung.

![\[Datendateien werden in einen S3-Bucket hochgeladen, mit der Erweiterung aws_s3 verarbeitet und an die Aurora-Instance gesendet.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/3aeecd46-1f87-41f9-a9cd-f8181f92e83f/images/4a6c5f5c-58fb-4355-b243-d09a15c1cec6.png)


1. Dateien werden aus der Anwendung in den S3-Bucket hochgeladen.

1. Die `aws_s3` Erweiterung greift mithilfe von PL/pgSQL auf die Daten zu und lädt die Daten in Aurora PostgreSQL-kompatibel hoch.

## Tools
<a name="set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible-tools"></a>
+ [Amazon Aurora PostgreSQL-kompatibel — Amazon Aurora PostgreSQL-Compatible](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) Edition ist eine vollständig verwaltete, PostgreSQL-kompatible und ACID-konforme relationale Datenbank-Engine. Sie kombiniert die Geschwindigkeit und Zuverlässigkeit kommerzieller High-End-Datenbanken mit der Wirtschaftlichkeit von Open-Source-Datenbanken.
+ [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-welcome.html) — Die AWS-Befehlszeilenschnittstelle (AWS CLI) ist ein einheitliches Tool zur Verwaltung Ihrer AWS-Services. Mit nur einem Tool zum Herunterladen und Konfigurieren können Sie mehrere AWS-Services von der Befehlszeile aus steuern und mithilfe von Skripts automatisieren.
+ [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) — Amazon CloudWatch überwacht die Ressourcen und die Nutzung von Amazon S3.
+ [Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) — Amazon Simple Storage Service (Amazon S3) ist Speicher für das Internet. In diesem Muster bietet Amazon S3 eine Speicherebene zum Empfangen und Speichern von Dateien für den Verbrauch und die Übertragung zum und vom Aurora PostgreSQL-kompatiblen Cluster.
+ [aws\$1s3](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/PostgreSQL.Procedural.Importing.html#aws_s3.table_import_from_s3) — Die `aws_s3` Erweiterung integriert Amazon S3 und Aurora PostgreSQL-kompatibel.
+ [Amazon SNS](https://docs.aws.amazon.com/sns/latest/dg/welcome.html) — Amazon Simple Notification Service (Amazon SNS) koordiniert und verwaltet die Zustellung oder den Versand von Nachrichten zwischen Herausgebern und Kunden. In diesem Muster wird Amazon SNS zum Senden von Benachrichtigungen verwendet.
+ [pgAdmin](https://www.pgadmin.org/docs/) — pgAdmin ist ein Open-Source-Verwaltungstool für Postgres. pgAdmin 4 bietet eine grafische Oberfläche zum Erstellen, Verwalten und Verwenden von Datenbankobjekten.

**Code**

Um die erforderliche Funktionalität zu erreichen, erstellt das Muster mehrere Funktionen mit einer ähnlichen Benennung wie. `UTL_FILE` Der Abschnitt *Zusätzliche Informationen* enthält die Codebasis für diese Funktionen.

Ersetzen Sie den Code `testaurorabucket` durch den Namen Ihres Test-S3-Buckets. `us-east-1`Ersetzen Sie durch die AWS-Region, in der sich Ihr Test-S3-Bucket befindet.

## Epen
<a name="set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible-epics"></a>

### Integrieren Sie Amazon S3 und Aurora PostgreSQL-kompatibel
<a name="integrate-amazon-s3-and-aurora-postgresql-compatible"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie IAM-Richtlinien ein. | Erstellen Sie AWS Identity and Access Management (IAM) -Richtlinien, die Zugriff auf den S3-Bucket und die darin enthaltenen Objekte gewähren. Den Code finden Sie im Abschnitt *Zusätzliche Informationen*. | AWS-Administrator, DBA | 
| Fügen Sie Amazon S3 S3-Zugriffsrollen zu Aurora PostgreSQL hinzu. | Erstellen Sie zwei IAM-Rollen: eine Rolle für den Lese- und eine Rolle für den Schreibzugriff auf Amazon S3. Hängen Sie die beiden Rollen an den Aurora PostgreSQL-kompatiblen Cluster an: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible.html)Weitere Informationen finden Sie in der Aurora PostgreSQL-kompatiblen Dokumentation zum [Import](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/USER_PostgreSQL.S3Import.html) und [Export von Daten nach Amazon S3](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/postgresql-s3-export.html). | AWS-Administrator, DBA | 

### Richten Sie die Erweiterungen in Aurora PostgreSQL-kompatibel ein
<a name="set-up-the-extensions-in-aurora-postgresql-compatible"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Erweiterung aws\$1commons. | Die `aws_commons` Erweiterung ist eine Abhängigkeit von der `aws_s3` Erweiterung. | DBA, Entwickler | 
| Erstellen Sie die Erweiterung aws\$1s3. | Die `aws_s3` Erweiterung interagiert mit Amazon S3. | DBA, Entwickler | 

### Validieren Sie die Amazon S3- und Aurora PostgreSQL-kompatible Integration
<a name="validate-amazon-s3-and-aurora-postgresql-compatible-integration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Testen Sie den Import von Dateien aus Amazon S3 nach Aurora PostgreSQL. | Um den Import von Dateien in Aurora PostgreSQL-Compatible zu testen, erstellen Sie eine CSV-Beispieldatei und laden Sie sie in den S3-Bucket hoch. Erstellen Sie eine Tabellendefinition auf der Grundlage der CSV-Datei und laden Sie die Datei mithilfe der Funktion in die Tabelle. `aws_s3.table_import_from_s3` | DBA, Entwickler | 
| Testen Sie den Export von Dateien von Aurora PostgreSQL nach Amazon S3. | Um den Export von Dateien aus Aurora PostgreSQL-Compatible zu testen, erstellen Sie eine Testtabelle, füllen Sie sie mit Daten und exportieren Sie die Daten dann mithilfe der Funktion. `aws_s3.query_export_to_s3` | DBA, Entwickler | 

### Um das UTL\$1FILE-Hilfsprogramm nachzuahmen, erstellen Sie Wrapper-Funktionen
<a name="to-mimic-the-utl_file-utility-create-wrapper-functions"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie das Schema utl\$1file\$1utility. | Das Schema hält die Wrapper-Funktionen zusammen. Führen Sie den folgenden Befehl aus, um das Schema zu erstellen.<pre>CREATE SCHEMA utl_file_utility;</pre> | DBA, Entwickler | 
| Erstellen Sie den Typ file\$1type. | Verwenden Sie den folgenden Code, um den `file_type` Typ zu erstellen.<pre>CREATE TYPE utl_file_utility.file_type AS (<br />    p_path character varying(30),<br />    p_file_name character varying<br />);<br /><br /><br /></pre> | DBA/Entwickler | 
| Erstellen Sie die Init-Funktion. | Die `init` Funktion initialisiert eine gemeinsame Variable wie oder. `bucket` `region` Den Code finden Sie im Abschnitt *Zusätzliche Informationen*. | DBA/Entwickler | 
| Erstellen Sie die Wrapper-Funktionen. | Erstellen Sie die Wrapper-Funktionen `fopen``put_line`, und. `fclose` Code finden Sie im Abschnitt *Zusätzliche Informationen*. | DBA, Entwickler | 

### Testen Sie die Wrapper-Funktionen
<a name="test-the-wrapper-functions"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Testen Sie die Wrapper-Funktionen im Schreibmodus. | Um die Wrapper-Funktionen im Schreibmodus zu testen, verwenden Sie den Code im Abschnitt *Zusätzliche Informationen*. | DBA, Entwickler | 
| Testen Sie die Wrapper-Funktionen im Append-Modus. | *Um die Wrapper-Funktionen im Append-Modus zu testen, verwenden Sie den Code im Abschnitt Zusätzliche Informationen.* | DBA, Entwickler | 

## Zugehörige Ressourcen
<a name="set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible-resources"></a>
+ [Amazon S3 S3-Integration](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/USER_PostgreSQL.S3Import.html)
+ [Amazon S3](https://aws.amazon.com/s3/)
+ [Aurora](https://aws.amazon.com/rds/aurora/?nc2=h_ql_prod_db_aa&aurora-whats-new.sort-by=item.additionalFields.postDateTime&aurora-whats-new.sort-order=desc)
+ [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/)
+ [Amazon SNS](https://aws.amazon.com/sns/?nc2=h_ql_prod_ap_sns&whats-new-cards.sort-by=item.additionalFields.postDateTime&whats-new-cards.sort-order=desc)

## Zusätzliche Informationen
<a name="set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible-additional"></a>

**Richten Sie IAM-Richtlinien ein**

Erstellen Sie die folgenden Richtlinien.


| 
| 
| Richtlinienname | JSON | 
| --- |--- |
| S3 IntRead | <pre>{<br />    "Version": "2012-10-17",		 	 	 <br />    "Statement": [<br />        {<br />            "Sid": "S3integrationtest",<br />            "Effect": "Allow",<br />            "Action": [<br />                "s3:GetObject",<br />                "s3:ListBucket"<br />            ],<br />            "Resource": [<br />         "arn:aws:s3:::testaurorabucket/*",<br />         "arn:aws:s3:::testaurorabucket"<br />            ]<br />        }<br />    ]<br />}</pre> | 
| S3 IntWrite | <pre>{<br />    "Version": "2012-10-17",		 	 	 <br />    "Statement": [<br />        {<br />            "Sid": "S3integrationtest",<br />            "Effect": "Allow",<br />            "Action": [<br />                "s3:PutObject",                <br />                "s3:ListBucket"<br />            ],<br />            "Resource": [                "arn:aws:s3:::testaurorabucket/*",                "arn:aws:s3:::testaurorabucket"<br />            ]<br />        }<br />    ]<br />}</pre> | 

**Erstellen Sie die Init-Funktion**

Um allgemeine Variablen wie `bucket` oder zu initialisieren`region`, erstellen Sie die `init` Funktion mit dem folgenden Code.

```
CREATE OR REPLACE FUNCTION utl_file_utility.init(
    )
    RETURNS void
    LANGUAGE 'plpgsql'

    COST 100
    VOLATILE 
AS $BODY$
BEGIN
      perform set_config
      ( format( '%s.%s','UTL_FILE_UTILITY', 'region' )
      , 'us-east-1'::text
      , false );

      perform set_config
      ( format( '%s.%s','UTL_FILE_UTILITY', 's3bucket' )
      , 'testaurorabucket'::text
      , false );
END;
$BODY$;
```

**Erstellen Sie die Wrapper-Funktionen**

Erstellen Sie die `fclose` Wrapper-Funktionen `fopen``put_line`, und.

*öffnen*

```
CREATE OR REPLACE FUNCTION utl_file_utility.fopen(
    p_file_name character varying,
    p_path character varying,
    p_mode character DEFAULT 'W'::bpchar,
    OUT p_file_type utl_file_utility.file_type)
    RETURNS utl_file_utility.file_type
    LANGUAGE 'plpgsql'

    COST 100
    VOLATILE 
AS $BODY$
declare
    v_sql character varying;
    v_cnt_stat integer;
    v_cnt integer;
    v_tabname character varying;
    v_filewithpath character varying;
    v_region character varying;
    v_bucket character varying;

BEGIN
    /*initialize common variable */
    PERFORM utl_file_utility.init();
    v_region := current_setting( format( '%s.%s', 'UTL_FILE_UTILITY', 'region' ) );
    v_bucket :=  current_setting( format( '%s.%s', 'UTL_FILE_UTILITY', 's3bucket' ) );
    
    /* set tabname*/
    v_tabname := substring(p_file_name,1,case when strpos(p_file_name,'.') = 0 then length(p_file_name) else strpos(p_file_name,'.') - 1 end );
    v_filewithpath := case when NULLif(p_path,'') is null then p_file_name else concat_ws('/',p_path,p_file_name) end ;
    raise notice 'v_bucket %, v_filewithpath % , v_region %', v_bucket,v_filewithpath, v_region;
    
    /* APPEND MODE HANDLING; RETURN EXISTING FILE DETAILS IF PRESENT ELSE CREATE AN EMPTY FILE */
    IF p_mode = 'A' THEN
        v_sql := concat_ws('','create temp table if not exists ', v_tabname,' (col1 text)');
        execute v_sql;

        begin
        PERFORM aws_s3.table_import_from_s3 
            ( v_tabname, 
            '',  
            'DELIMITER AS ''#''', 
            aws_commons.create_s3_uri 
            (     v_bucket, 
                v_filewithpath ,
                v_region)
            );
        exception
            when others then
             raise notice 'File load issue ,%',sqlerrm;
             raise;
        end;
        execute concat_ws('','select count(*) from ',v_tabname) into v_cnt;

        IF v_cnt > 0 
        then
            p_file_type.p_path := p_path;
            p_file_type.p_file_name := p_file_name;
        else         
            PERFORM aws_s3.query_export_to_s3('select ''''', 
                            aws_commons.create_s3_uri(v_bucket, v_filewithpath, v_region)            
                              );

            p_file_type.p_path := p_path;
            p_file_type.p_file_name := p_file_name;        
        end if;
        v_sql := concat_ws('','drop table ', v_tabname);        
        execute v_sql;            
    ELSEIF p_mode = 'W' THEN
            PERFORM aws_s3.query_export_to_s3('select ''''', 
                            aws_commons.create_s3_uri(v_bucket, v_filewithpath, v_region)            
                              );
            p_file_type.p_path := p_path;
            p_file_type.p_file_name := p_file_name;
    END IF;    
    
EXCEPTION
        when others then
            p_file_type.p_path := p_path;
            p_file_type.p_file_name := p_file_name;
            raise notice 'fopenerror,%',sqlerrm;
            raise;
END;
$BODY$;
```

*put\$1line*

```
CREATE OR REPLACE FUNCTION utl_file_utility.put_line(
    p_file_name character varying,
    p_path character varying,
    p_line text,
    p_flag character DEFAULT 'W'::bpchar)
    RETURNS boolean
    LANGUAGE 'plpgsql'

    COST 100
    VOLATILE 
AS $BODY$
/**************************************************************************
* Write line, p_line in windows format to file, p_fp - with carriage return
* added before new line.
**************************************************************************/
declare
    v_sql varchar;
    v_ins_sql varchar;
    v_cnt INTEGER;
    v_filewithpath character varying;
    v_tabname  character varying;
    v_bucket character varying;
    v_region character varying;    

BEGIN
 PERFORM utl_file_utility.init();

/* check if temp table already exist */

 v_tabname := substring(p_file_name,1,case when strpos(p_file_name,'.') = 0 then length(p_file_name) else strpos(p_file_name,'.') - 1 end );

 v_sql := concat_ws('','select count(1) FROM pg_catalog.pg_class c LEFT JOIN pg_catalog.pg_namespace n ON n.oid = c.relnamespace where n.nspname like ''pg_temp_%''' 
                         ,' AND pg_catalog.pg_table_is_visible(c.oid) AND Upper(relname) = Upper( '''
                         ,  v_tabname ,''' ) ');
  
 execute v_sql into v_cnt;
  
  IF v_cnt = 0 THEN
         v_sql := concat_ws('','create temp table ',v_tabname,' (col text)');
        execute v_sql;
        /* CHECK IF APPEND MODE */
        IF upper(p_flag) = 'A' THEN
            PERFORM utl_file_utility.init();                        
            v_region := current_setting( format( '%s.%s', 'UTL_FILE_UTILITY', 'region' ) );
            v_bucket :=  current_setting( format( '%s.%s', 'UTL_FILE_UTILITY', 's3bucket' ) );
            
            /* set tabname*/            
            v_filewithpath := case when NULLif(p_path,'') is null then p_file_name else concat_ws('/',p_path,p_file_name) end ;            
            
            begin
               PERFORM aws_s3.table_import_from_s3 
                     ( v_tabname, 
                          '',  
                       'DELIMITER AS ''#''', 
                        aws_commons.create_s3_uri 
                           ( v_bucket, 
                               v_filewithpath, 
                               v_region    )
                    );
            exception
                when others then
                    raise notice  'Error Message : %',sqlerrm;
                    raise;
            end;    
        END IF;    
    END IF;
    /* INSERT INTO TEMP TABLE */              
    v_ins_sql := concat_ws('','insert into ',v_tabname,' values(''',p_line,''')');
    execute v_ins_sql;
    RETURN TRUE;
    exception
            when others then
                raise notice  'Error Message : %',sqlerrm;
                raise;
END;
$BODY$;
```

*schließen*

```
CREATE OR REPLACE FUNCTION utl_file_utility.fclose(
    p_file_name character varying,
    p_path character varying)
    RETURNS boolean
    LANGUAGE 'plpgsql'

    COST 100
    VOLATILE 
AS $BODY$
DECLARE
    v_filewithpath character varying;
    v_bucket character varying;
    v_region character varying;
    v_tabname character varying;
    v_sql character varying;
BEGIN
      PERFORM utl_file_utility.init();
  
    v_region := current_setting( format( '%s.%s', 'UTL_FILE_UTILITY', 'region' ) );
    v_bucket :=  current_setting( format( '%s.%s', 'UTL_FILE_UTILITY', 's3bucket' ) );

    v_tabname := substring(p_file_name,1,case when strpos(p_file_name,'.') = 0 then length(p_file_name) else strpos(p_file_name,'.') - 1 end );
    v_filewithpath := case when NULLif(p_path,'') is null then p_file_name else concat_ws('/',p_path,p_file_name) end ;

    raise notice 'v_bucket %, v_filewithpath % , v_region %', v_bucket,v_filewithpath, v_region ;
    
    /* exporting to s3 */
    perform aws_s3.query_export_to_s3
        (concat_ws('','select * from ',v_tabname,'  order by ctid asc'), 
            aws_commons.create_s3_uri(v_bucket, v_filewithpath, v_region)
        );
    v_sql := concat_ws('','drop table ', v_tabname);
    execute v_sql;    
    RETURN TRUE;
EXCEPTION 
       when others then
     raise notice 'error fclose %',sqlerrm;
     RAISE;
END;
$BODY$;
```

**Testen Sie Ihr Setup und Ihre Wrapper-Funktionen**

Verwenden Sie die folgenden anonymen Codeblöcke, um Ihr Setup zu testen.

*Testen Sie den Schreibmodus*

Der folgende Code schreibt eine Datei mit dem Namen `s3inttest` im S3-Bucket.

```
do $$
declare
l_file_name varchar := 's3inttest' ;
l_path varchar := 'integration_test' ;
l_mode char(1) := 'W';
l_fs utl_file_utility.file_type ;
l_status boolean;

begin
select * from
utl_file_utility.fopen( l_file_name, l_path , l_mode ) into l_fs ;
raise notice 'fopen : l_fs : %', l_fs;

select * from
utl_file_utility.put_line( l_file_name, l_path ,'this is test file:in s3bucket: for test purpose', l_mode ) into l_status ;
raise notice 'put_line : l_status %', l_status;

select * from utl_file_utility.fclose( l_file_name , l_path ) into l_status ;
raise notice 'fclose : l_status %', l_status;

end;
$$
```

*Testen Sie den Append-Modus*

Der folgende Code fügt Zeilen an die `s3inttest` Datei an, die im vorherigen Test erstellt wurde.

```
do $$
declare
l_file_name varchar := 's3inttest' ;
l_path varchar := 'integration_test' ;
l_mode char(1) := 'A';
l_fs utl_file_utility.file_type ;
l_status boolean;

begin
select * from
utl_file_utility.fopen( l_file_name, l_path , l_mode ) into l_fs ;
raise notice 'fopen : l_fs : %', l_fs;


select * from
utl_file_utility.put_line( l_file_name, l_path ,'this is test file:in s3bucket: for test purpose : append 1', l_mode ) into l_status ;
raise notice 'put_line : l_status %', l_status;

select * from
utl_file_utility.put_line( l_file_name, l_path ,'this is test file:in s3bucket : for test purpose : append 2', l_mode ) into l_status ;
raise notice 'put_line : l_status %', l_status;

select * from utl_file_utility.fclose( l_file_name , l_path ) into l_status ;
raise notice 'fclose : l_status %', l_status;

end;
$$
```

**Amazon SNS SNS-Benachrichtigungen**

Optional können Sie CloudWatch Amazon-Überwachung und Amazon SNS-Benachrichtigungen im S3-Bucket einrichten. Weitere Informationen finden Sie unter [Amazon S3 überwachen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/monitoring-overview.html) und [Amazon SNS SNS-Benachrichtigungen einrichten](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/US_SetupSNS.html).

# Datenbankobjekte nach der Migration von Oracle zu Amazon Aurora PostgreSQL validieren
<a name="validate-database-objects-after-migrating-from-oracle-to-amazon-aurora-postgresql"></a>

*Venkatramana Chintha und Eduardo Valentim, Amazon Web Services*

## Zusammenfassung
<a name="validate-database-objects-after-migrating-from-oracle-to-amazon-aurora-postgresql-summary"></a>

Dieses Muster beschreibt einen step-by-step Ansatz zur Validierung von Objekten nach der Migration einer Oracle-Datenbank zur Amazon Aurora PostgreSQL-Compatible Edition.

In diesem Muster werden Nutzungsszenarien und Schritte für die Validierung von Datenbankobjekten beschrieben. Weitere Informationen finden Sie im [AWS-Datenbank-Blog unter Validieren von Datenbankobjekten nach der Migration mit AWS SCT und [AWS](https://aws.amazon.com/blogs/) DMS](https://aws.amazon.com/blogs/database/validating-database-objects-after-migration-using-aws-sct-and-aws-dms/).

## Voraussetzungen und Einschränkungen
<a name="validate-database-objects-after-migrating-from-oracle-to-amazon-aurora-postgresql-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto.
+ Eine lokale Oracle-Datenbank, die auf eine Aurora PostgreSQL-kompatible Datenbank migriert wurde. 
+ Anmeldeinformationen für die Aurora PostgreSQL-kompatible Datenbank, auf die die [RDSDataFullAccessAmazon-Richtlinie](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/query-editor.html) angewendet wurde. 
+ Dieses Muster verwendet den [Abfrage-Editor für Aurora Serverless DB-Cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/query-editor.html), der in der Amazon Relational Database Service (Amazon RDS) -Konsole verfügbar ist. Sie können dieses Muster jedoch mit jedem anderen Abfrage-Editor verwenden. 

**Einschränkungen**
+ Oracle SYNONYM-Objekte sind in PostgreSQL nicht verfügbar, können aber teilweise durch **Views** oder SET search\$1path-Abfragen validiert werden.
+ Der Amazon RDS-Abfrage-Editor ist nur in [bestimmten AWS-Regionen und für bestimmte MySQL- und PostgreSQL-Versionen](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/query-editor.html) verfügbar.

## Architektur
<a name="validate-database-objects-after-migrating-from-oracle-to-amazon-aurora-postgresql-architecture"></a>

 

![\[Database migration workflow showing on-premises Oracle to AWSAurora PostgreSQL via client program and validation scripts.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/7c028960-6dea-46ad-894d-e42cefd50c03/images/be5f8ae3-f5af-4c5e-9440-09ab410beaa1.png)


 

## Tools
<a name="validate-database-objects-after-migrating-from-oracle-to-amazon-aurora-postgresql-tools"></a>

**Tools**
+ [Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) — Aurora PostgreSQL-Compatible ist eine vollständig verwaltete, PostgreSQL-kompatible und ACID-konforme relationale Datenbank-Engine, die die Geschwindigkeit und Zuverlässigkeit kommerzieller High-End-Datenbanken mit der Einfachheit und Wirtschaftlichkeit von Open-Source-Datenbanken kombiniert.
+ [Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) — Amazon Relational Database Service (Amazon RDS) erleichtert die Einrichtung, den Betrieb und die Skalierung einer relationalen Datenbank in der AWS-Cloud. Dieser Service bietet kostengünstige und anpassbare Kapazität für eine Branchenstandards entsprechende relationale Datenbank sowie die Verwaltung gängiger Datenbankaufgaben.
+ [Abfrage-Editor für Aurora Severless](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/query-editor.html) — Der Abfrage-Editor unterstützt Sie beim Ausführen von SQL-Abfragen in der Amazon RDS-Konsole. Sie können jede gültige SQL-Anweisung auf dem Aurora Serverless DB-Cluster ausführen, einschließlich Datenmanipulations- und Datendefinitionsanweisungen.

Um die Objekte zu validieren, verwenden Sie die vollständigen Skripten in der Datei „Objektvalidierungsskripten“ im Abschnitt „Anlagen“. Verwenden Sie die folgende Tabelle als Referenz.


| 
| 
| Oracle-Objekt | Zu verwendendes Skript | 
| --- |--- |
| Pakete | Abfrage 1 | 
| Tabellen | Abfrage 3 | 
| Ansichten | Abfrage 5 | 
| Sequenzen | Abfrage 7 | 
| Auslöser |  Abfrage 9 | 
| Primärschlüssel | Abfrage 11 | 
| Indizes | Abfrage 13 | 
| Einschränkungen prüfen | Abfrage 15 | 
| Fremdschlüssel  | Abfrage 17  | 


| 
| 
| PostgreSQL-Objekt | Zu verwendendes Skript | 
| --- |--- |
| Pakete | Abfrage 2 | 
| Tabellen | Abfrage 4 | 
| Ansichten | Abfrage 6 | 
| Sequenzen | Abfrage 8 | 
| Auslöser | Abfrage 10 | 
| Primärschlüssel | Abfrage 12 | 
| Indizes | Abfrage 14 | 
| Einschränkungen prüfen | Abfrage 16 | 
| Fremdschlüssel | Abfrage 18 | 

## Epen
<a name="validate-database-objects-after-migrating-from-oracle-to-amazon-aurora-postgresql-epics"></a>

### Validieren Sie Objekte in der Oracle-Quelldatenbank
<a name="validate-objects-in-the-source-oracle-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Führen Sie die Validierungsabfrage „Pakete“ in der Oracle-Quelldatenbank aus.  | Laden Sie die Datei „Objektvalidierungsskripten“ aus dem Abschnitt „Anlagen“ herunter und öffnen Sie sie. Stellen Sie über Ihr Client-Programm eine Connect zur Oracle-Quelldatenbank her. Führen Sie das Validierungsskript „Query 1" aus der Datei „Objektvalidierungsskripten“ aus. Wichtig: Geben Sie in den Abfragen Ihren Oracle-Benutzernamen statt „your\$1schema“ ein. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage „Tabellen“ aus.  | Führen Sie das Skript „Query 3" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage „Views“ aus.  | Führen Sie das Skript „Query 5" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Überprüfung der Anzahl der „Sequenzen“ durch.  | Führen Sie das Skript „Query 7" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage „Trigger“ aus.  | Führen Sie das Skript „Query 9" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage für „Primärschlüssel“ aus.  | Führen Sie das Skript „Query 11" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage „Indizes“ aus.  | Führen Sie das Validierungsskript „Query 13" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage „Check Constraints“ aus.  | Führen Sie das Skript „Query 15" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage für „Fremdschlüssel“ aus.  | Führen Sie das Validierungsskript „Query 17" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 

### Objekte in der Aurora PostgreSQL-kompatiblen Zieldatenbank validieren
<a name="validate-objects-in-the-target-aurora-postgresql-compatible-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie mithilfe des Abfrage-Editors eine Connect zur Aurora PostgreSQL-kompatiblen Zieldatenbank her. | Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die Amazon RDS-Konsole. Wählen Sie in der oberen rechten Ecke die AWS-Region aus, in der Sie die Aurora PostgreSQL-kompatible Datenbank erstellt haben. Wählen Sie im Navigationsbereich „Datenbanken“ und wählen Sie die Aurora PostgreSQL-kompatible Zieldatenbank aus. Wählen Sie unter „Aktionen“ die Option „Abfrage“ aus. Wichtig: Wenn Sie noch keine Verbindung mit der Datenbank hergestellt haben, wird die Seite „Mit Datenbank verbinden“ geöffnet. Anschließend müssen Sie Ihre Datenbankinformationen wie Benutzername und Passwort eingeben. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage für „Pakete“ aus. | Führen Sie das Skript „Query 2" aus der Datei „Objektvalidierungsskripten“ im Abschnitt „Anlagen“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage „Tabellen“ aus.  | Kehren Sie zum Abfrage-Editor für die Aurora PostgreSQL-kompatible Datenbank zurück und führen Sie das Skript „Query 4" aus der Datei „Object Validation scripts“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage „Views“ aus.  | Kehren Sie zum Abfrage-Editor für die Aurora PostgreSQL-kompatible Datenbank zurück und führen Sie das Skript „Query 6" aus der Datei „Object Validation scripts“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Überprüfung der Anzahl der „Sequenzen“ durch.  | Kehren Sie zum Abfrage-Editor für die Aurora PostgreSQL-kompatible Datenbank zurück und führen Sie das „Query 8"-Skript aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage „Trigger“ aus.  | Kehren Sie zum Abfrage-Editor für die Aurora PostgreSQL-kompatible Datenbank zurück und führen Sie das Skript „Query 10" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage für „Primärschlüssel“ aus.  | Kehren Sie zum Abfrage-Editor für die Aurora PostgreSQL-kompatible Datenbank zurück und führen Sie das Skript „Query 12" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage „Indizes“ aus.  | Kehren Sie zum Abfrage-Editor für die Aurora PostgreSQL-kompatible Datenbank zurück und führen Sie das Skript „Query 14" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage „Check Constraints“ aus.  | Führen Sie das Skript „Query 16" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 
| Führen Sie die Validierungsabfrage für „Fremdschlüssel“ aus.  | Führen Sie das Validierungsskript „Query 18" aus der Datei „Objektvalidierungsskripten“ aus. Stellen Sie sicher, dass Sie Ihre Abfrageergebnisse aufzeichnen. | Entwickler, DBA | 

### Vergleichen Sie die Validierungsdatensätze der Quell- und Zieldatenbank
<a name="compare-source-and-target-database-validation-records"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Vergleichen und validieren Sie beide Abfrageergebnisse.  | Vergleichen Sie die Abfrageergebnisse der Oracle- und Aurora PostgreSQL-kompatiblen Datenbanken, um alle Objekte zu validieren. Wenn sie alle übereinstimmen, wurden alle Objekte erfolgreich validiert. | Entwickler, DBA | 

## Zugehörige Ressourcen
<a name="validate-database-objects-after-migrating-from-oracle-to-amazon-aurora-postgresql-resources"></a>
+ [Validierung von Datenbankobjekten nach einer Migration mit AWS SCT und AWS DMS](https://aws.amazon.com/blogs/database/validating-database-objects-after-migration-using-aws-sct-and-aws-dms/)
+ [Amazon Aurora Aurora-Funktionen: PostgreSQL-kompatible Edition](https://aws.amazon.com/rds/aurora/postgresql-features/)

## Anlagen
<a name="attachments-7c028960-6dea-46ad-894d-e42cefd50c03"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/7c028960-6dea-46ad-894d-e42cefd50c03/attachments/attachment.zip)

# Erneut hosten
<a name="migration-rehost-pattern-list"></a>

**Topics**
+ [Beschleunigen Sie die Erkennung und Migration von Microsoft-Workloads zu AWS](accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws.md)
+ [Erstellen Sie einen Genehmigungsprozess für Firewallanfragen während einer Rehost-Migration zu AWS](create-an-approval-process-for-firewall-requests-during-a-rehost-migration-to-aws.md)
+ [EC2 Windows-Instances in ein AWS Managed Services Services-Konto aufnehmen und migrieren](ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.md)
+ [Migrieren Sie eine Couchbase Server-Datenbank zu Amazon EC2](migrate-couchbase-server-ec2.md)
+ [Migrieren Sie Db2 for LUW zu Amazon, EC2 indem Sie den Protokollversand verwenden, um die Ausfallzeit zu reduzieren](migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time.md)
+ [Migrieren Sie Db2 for LUW zu Amazon EC2 mit hochverfügbarer Disaster Recovery](migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery.md)
+ [Migrieren Sie IIS-gehostete Anwendungen mithilfe EC2 von appcmd.exe zu Amazon](migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd.md)
+ [Migrieren Sie EC2 mithilfe des Application Migration Service eine lokale Microsoft SQL Server-Datenbank zu Amazon](migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn.md)
+ [Migrieren Sie einen F5 BIG-IP-Workload zu F5 BIG-IP VE auf dem AWS Cloud](migrate-an-f5-big-ip-workload-to-f5-big-ip-ve-on-the-aws-cloud.md)
+ [Migrieren Sie eine lokale Go-Webanwendung mithilfe der binären Methode zu AWS Elastic Beanstalk](migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method.md)
+ [Migrieren Sie einen lokalen SFTP-Server auf AWS AWS Transfer for SFTP](migrate-an-on-premises-sftp-server-to-aws-using-aws-transfer-for-sftp.md)
+ [Migrieren Sie eine lokale VM EC2 mithilfe des AWS Application Migration Service zu Amazon](migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service.md)
+ [Migrieren Sie kleine Datenmengen von der lokalen Infrastruktur zu Amazon S3 mit AWS SFTP](migrate-small-sets-of-data-from-on-premises-to-amazon-s3-using-aws-sftp.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank zu Oracle auf Amazon EC2](migrate-an-on-premises-oracle-database-to-oracle-on-amazon-ec2.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank mithilfe EC2 von Oracle Data Pump zu Amazon](migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump.md)
+ [Migrieren Sie RHEL-BYOL-Systeme mithilfe von AWS MGN zu Instances mit AWS-Lizenz](migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank zu Amazon EC2](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2.md)
+ [Rehosten Sie lokale Workloads in der AWS-Cloud: Migrationscheckliste](rehost-on-premises-workloads-in-the-aws-cloud-migration-checklist.md)
+ [Richten Sie mithilfe von Amazon eine Multi-AZ-Infrastruktur für einen SQL Server Always On FCI ein FSx](set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.md)
+ [Verwenden Sie BMC Discovery-Abfragen, um Migrationsdaten für die Migrationsplanung zu extrahieren](use-bmc-discovery-queries-to-extract-migration-data-for-migration-planning.md)

# Beschleunigen Sie die Erkennung und Migration von Microsoft-Workloads zu AWS
<a name="accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws"></a>

*Ali Alzand, Amazon Web Services*

## Zusammenfassung
<a name="accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws-summary"></a>

Dieses Muster zeigt Ihnen, wie Sie das [ PowerShell Modul Migration Validator Toolkit](https://github.com/aws-samples/migration-validator-toolkit-for-microsoft-workloads) verwenden, um Ihre Microsoft-Workloads zu erkennen und zu AWS zu migrieren. Das Modul führt mehrere Prüfungen und Validierungen für häufige Aufgaben im Zusammenhang mit beliebigen Microsoft-Workloads durch. Das Modul sucht beispielsweise nach Instances, an die möglicherweise mehrere Festplatten angeschlossen sind, oder nach Instances, die viele IP-Adressen verwenden. Eine vollständige Liste der Prüfungen, die das Modul durchführen kann, finden Sie im Abschnitt [Prüfungen](https://github.com/aws-samples/migration-validator-toolkit-for-microsoft-workloads#checks) auf der GitHub Seite des Moduls.

Das PowerShell Modul Migration Validator Toolkit kann Ihrem Unternehmen helfen, den Zeit- und Arbeitsaufwand für die Ermittlung der Anwendungen und Dienste zu reduzieren, die auf Ihren Microsoft-Workloads ausgeführt werden. Das Modul unterstützt Sie außerdem dabei, die Konfigurationen Ihrer Workloads zu identifizieren, sodass Sie herausfinden können, ob Ihre Konfigurationen auf AWS unterstützt werden. Das Modul bietet auch Empfehlungen für die nächsten Schritte und Abhilfemaßnahmen, sodass Sie Fehlkonfigurationen vor, während oder nach der Migration vermeiden können.

## Voraussetzungen und Einschränkungen
<a name="accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws-prereqs"></a>

**Voraussetzungen**
+ Lokales Administratorkonto
+ PowerShell 4.0

**Einschränkungen**
+ Funktioniert nur auf Microsoft Windows Server 2012 R2 oder höher

## Tools
<a name="accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws-tools"></a>

**Tools**
+ PowerShell 4.0

**Code-Repository**

[Das Migration Validator PowerShell Toolkit-Modul für dieses Muster ist im Repository -microsoft-workloads verfügbar. GitHub migration-validator-toolkit-for](https://github.com/aws-samples/migration-validator-toolkit-for-microsoft-workloads)

## Epen
<a name="accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws-epics"></a>

### Führen Sie das PowerShell Modul Migration Validator Toolkit auf einem einzigen Ziel aus
<a name="run-the-migration-validator-toolkit-powershell-module-on-a-single-target"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie das Modul herunter, extrahieren Sie es, importieren Sie es und rufen Sie es auf. | Wählen Sie eine der folgenden Methoden, um das Modul herunterzuladen und bereitzustellen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws.html)**Führen Sie das PowerShell Skript aus**Führen Sie in PowerShell den folgenden Beispielcode aus:<pre>#MigrationValidatorToolkit<br />$uri = 'https://github.com/aws-samples/migration-validator-toolkit-for-microsoft-workloads/archive/refs/heads/main.zip'<br />$destination = (Get-Location).Path<br />if ((Test-Path -Path "$destination\MigrationValidatorToolkit.zip" -PathType Leaf) -or (Test-Path -Path "$destination\MigrationValidatorToolkit")) {<br />    write-host "File $destination\MigrationValidatorToolkit.zip or folder $destination\MigrationValidatorToolkit found, exiting"<br />}else {<br />    Write-host "Enable TLS 1.2 for this PowerShell session only."<br />    [Net.ServicePointManager]::SecurityProtocol = [Net.SecurityProtocolType]::Tls12<br />    $webClient = New-Object System.Net.WebClient<br />    Write-host "Downloading MigrationValidatorToolkit.zip"<br />    $webClient.DownloadFile($uri, "$destination\MigrationValidatorToolkit.zip")<br />    Write-host "MigrationValidatorToolkit.zip download successfully"<br />    Add-Type -Assembly "system.io.compression.filesystem"<br />    [System.IO.Compression.ZipFile]::ExtractToDirectory("$destination\MigrationValidatorToolkit.zip","$destination\MigrationValidatorToolkit")<br />    Write-host "Extracting MigrationValidatorToolkit.zip complete successfully"<br />    Import-Module "$destination\MigrationValidatorToolkit\migration-validator-toolkit-for-microsoft-workloads-main\MigrationValidatorToolkit.psm1"; Invoke-MigrationValidatorToolkit<br />}</pre>Der Code lädt das Modul aus einer ZIP-Datei herunter. Anschließend extrahiert, importiert und ruft der Code das Modul auf.**Laden Sie die ZIP-Datei herunter und extrahieren Sie sie**[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws.html)**Klonen Sie das Repository GitHub **[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws.html) | Systemadministrator | 
| Rufen Sie das Modul manuell auf. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws.html)[Format und Tabellenformat](https://learn.microsoft.com/en-us/powershell/module/microsoft.powershell.utility/format-table?view=powershell-7.3):<pre>Import-Module .\MigrationValidatorToolkit.psm1;Invoke-MigrationValidatorToolkit</pre>[Format](https://learn.microsoft.com/en-us/powershell/module/microsoft.powershell.utility/format-list?view=powershell-7.3) der Liste:<pre>Import-Module .\MigrationValidatorToolkit.psm1;Invoke-MigrationValidatorToolkit -List</pre>[Ausgabeformat: GridView](https://learn.microsoft.com/en-us/powershell/module/microsoft.powershell.utility/out-gridview?view=powershell-7.3)<pre>Import-Module .\MigrationValidatorToolkit.psm1;Invoke-MigrationValidatorToolkit -GridView</pre>[ConvertTo-CSv-Format](https://learn.microsoft.com/en-us/powershell/module/microsoft.powershell.utility/convertto-csv?view=powershell-7.3):<pre>Import-Module .\MigrationValidatorToolkit.psm1;Invoke-MigrationValidatorToolkit -csv</pre> | Systemadministrator | 

### Führen Sie das Modul Migration Validator Toolkit PowerShell auf mehreren Zielen aus
<a name="run-the-migration-validator-toolkit-powershell-module-on-multiple-targets"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie die ZIP-Datei herunter oder klonen Sie das GitHub Repository. | Wählen Sie eine der folgenden Optionen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws.html)<pre>git clone https://github.com/aws-samples/migration-validator-toolkit-for-microsoft-workloads.git</pre> | Systemadministrator | 
| Aktualisieren Sie die Liste server.csv. | Wenn Sie die ZIP-Datei heruntergeladen haben, gehen Sie wie folgt vor:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws.html) | Systemadministrator | 
| Rufen Sie das Modul auf. | Sie können jeden Computer innerhalb der Domäne verwenden, der einen Domänenbenutzer verwendet, der Administratorzugriff auf Zielcomputer hat.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws.html)<pre>Import-Module .\MigrationValidatorToolkit.psm1;Invoke-DomainComputers</pre>Die CSV-Ausgabedatei wird `MigrationValidatorToolkit\Outputs\folder` mit dem Präfixnamen `DomainComputers_MigrationAutomations_YYYY-MM-DDTHH-MM-SS` gespeichert. | Systemadministrator | 

## Fehlerbehebung
<a name="accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| `MigrationValidatorToolkit`schreibt Informationen über Ausführungen, Befehle und Fehler in Protokolldateien auf dem laufenden Host. | Sie können Protokolldateien manuell am folgenden Speicherort anzeigen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws.html) | 

## Zugehörige Ressourcen
<a name="accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws-resources"></a>
+ [Optionen, Tools und bewährte Methoden für die Migration von Microsoft-Workloads zu AWS (AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-microsoft-workloads-aws/introduction.html) Prescriptive Guidance)
+ [Microsoft-Migrationsmuster](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/migration-migration-patterns-by-workload-microsoft-pattern-list.html) (AWS Prescriptive Guidance)
+ [Kostenlose Cloud-Migrationsservices auf AWS](https://aws.amazon.com/free/migration/) (AWS-Dokumentation)
+ [Vordefinierte Aktionen nach der Markteinführung](https://docs.aws.amazon.com/mgn/latest/ug/predefined-post-launch-actions.html) (Dokumentation zum Anwendungsmarketing)

## Zusätzliche Informationen
<a name="accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws-additional"></a>

**Häufig gestellte Fragen**

*Wo kann ich das Modul Migration Validator Toolkit ausführen? PowerShell *

Sie können das Modul auf Microsoft Windows Server 2012 R2 oder höher ausführen.

*Wann führe ich dieses Modul aus?*

Wir empfehlen, dass Sie das Modul während der [Bewertungsphase](https://aws.amazon.com/cloud-migration/how-to-migrate/) der Migration ausführen.

*Ändert das Modul meine vorhandenen Server?*

Nein. Alle Aktionen in diesem Modul sind schreibgeschützt.

*Wie lange dauert es, das Modul auszuführen?*

Die Ausführung des Moduls dauert in der Regel 1—5 Minuten, hängt jedoch von der Ressourcenzuweisung Ihres Servers ab.

*Welche Berechtigungen benötigt das Modul, um ausgeführt zu werden?*

Sie müssen das Modul von einem lokalen Administratorkonto aus ausführen.

*Kann ich das Modul auf physischen Servern ausführen?*

Ja, sofern das Betriebssystem Microsoft Windows Server 2012 R2 oder höher ist.

*Wie führe ich das Modul skalierbar für mehrere Server aus?*

Um das Modul auf mehreren domänengebundenen Computern in großem Umfang auszuführen, folgen Sie den Schritten im Abschnitt *Ausführen des Migration Validator PowerShell Toolkit-Moduls auf mehreren Zielen* in diesem Handbuch. Verwenden Sie für Computer, die nicht in eine Domäne eingebunden sind, einen Remote-Aufruf oder führen Sie das Modul lokal aus, indem Sie den Schritten im Modul *Migration Validator Toolkit PowerShell auf einem einzelnen Ziel ausführen* in diesem Handbuch folgen.

# Erstellen Sie einen Genehmigungsprozess für Firewallanfragen während einer Rehost-Migration zu AWS
<a name="create-an-approval-process-for-firewall-requests-during-a-rehost-migration-to-aws"></a>

*Srikanth Rangavajhala, Amazon Web Services*

## Zusammenfassung
<a name="create-an-approval-process-for-firewall-requests-during-a-rehost-migration-to-aws-summary"></a>

Wenn Sie [Cloud Migration Factory on AWS für eine Rehost-Migration auf](https://aws.amazon.com/solutions/implementations/cloud-migration-factory-on-aws/) die verwenden [AWS Application Migration Service](https://docs.aws.amazon.com/mgn/latest/ug/what-is-application-migration-service.html)möchten, ist eine der Voraussetzungen AWS Cloud, dass Sie die TCP-Ports 443 und 1500 offen halten müssen. In der Regel erfordert das Öffnen dieser Firewall-Ports die Zustimmung Ihres Informationssicherheitsteams (InfoSec).

In diesem Muster wird beschrieben, wie Sie bei einer Rehost-Migration zum die Genehmigung einer Firewall-Anfrage von einem InfoSec Team einholen. AWS Cloud Sie können dieses Verfahren verwenden, um zu verhindern, dass Ihre Firewall-Anfrage vom InfoSec Team abgelehnt wird, was teuer und zeitaufwändig werden kann. Der Firewall-Anforderungsprozess umfasst zwei Überprüfungs- und Genehmigungsschritte zwischen AWS Migrationsberatern und Führungskräften, die mit Ihren InfoSec und den Anwendungsteams zusammenarbeiten, um die Firewall-Ports zu öffnen.

Bei diesem Muster wird davon ausgegangen, dass Sie eine Rehost-Migration mit AWS Beratern oder Migrationsspezialisten aus Ihrem Unternehmen planen. Sie können dieses Muster verwenden, wenn in Ihrer Organisation kein Firewall-Genehmigungsverfahren oder kein Formular zur pauschalen Genehmigung für Firewallanfragen eingerichtet wurde. Weitere Informationen dazu finden Sie im Abschnitt *Einschränkungen* dieses Musters. Weitere Informationen zu den Netzwerkanforderungen für den Application Migration Service finden Sie unter [Netzwerkanforderungen](https://docs.aws.amazon.com/mgn/latest/ug/Network-Requirements.html) in der Dokumentation zum Application Migration Service.

## Voraussetzungen und Einschränkungen
<a name="create-an-approval-process-for-firewall-requests-during-a-rehost-migration-to-aws-prereqs"></a>

**Voraussetzungen**
+ Eine geplante Rehost-Migration mit AWS Beratern oder Migrationsspezialisten aus Ihrem Unternehmen
+ Die für die Migration des Stacks erforderlichen Port- und IP-Informationen
+ Bestehende und future Zustandsarchitekturdiagramme
+ Firewall-Informationen über die lokale Infrastruktur und die Zielinfrastruktur, die Ports und zone-to-zone den Verkehrsfluss
+ Eine Checkliste zur Überprüfung der Firewall-Anfrage (im Anhang)
+ Ein Dokument zur Firewall-Anforderung, das gemäß den Anforderungen Ihres Unternehmens konfiguriert wurde
+ Eine Kontaktliste für die Prüfer und Genehmiger der Firewall, einschließlich der folgenden Rollen:
  + **Einreicher der Firewall-Anfrage — Spezialist oder Berater** für AWS Migration. Der Einsender der Firewall-Anfrage kann auch ein Migrationsspezialist aus Ihrem Unternehmen sein.
  + **Überprüfer von Firewall-Anfragen** — In der Regel handelt es sich dabei um den zentralen Ansprechpartner (SPOC) von. AWS
  + **Genehmiger für Firewall-Anfragen** — Ein InfoSec Teammitglied.

**Einschränkungen**
+ Dieses Muster beschreibt einen generischen Genehmigungsprozess für Firewallanfragen. Die Anforderungen können für einzelne Organisationen unterschiedlich sein.
+ Stellen Sie sicher, dass Sie die Änderungen an Ihrem Firewall-Anforderungsdokument nachverfolgen.

Die folgende Tabelle zeigt die Anwendungsfälle für dieses Muster.


| 
| 
| Verfügt Ihr Unternehmen bereits über ein Firewall-Genehmigungsverfahren? | Verfügt Ihr Unternehmen bereits über ein Firewall-Antragsformular?  | Vorgeschlagene Aktion | 
| --- |--- |--- |
| Ja | Ja | Arbeiten Sie mit AWS Beratern oder Ihren Migrationsspezialisten zusammen, um den Prozess Ihres Unternehmens zu implementieren. | 
| Nein | Ja | Verwenden Sie den Firewall-Genehmigungsprozess dieses Musters. Verwenden Sie entweder einen AWS Berater oder einen Migrationsspezialisten aus Ihrem Unternehmen, um das Formular zur pauschalen Genehmigung für die Firewall-Anfrage einzureichen. | 
| Nein | Nein | Verwenden Sie den Firewall-Genehmigungsprozess dieses Musters. Verwenden Sie entweder einen AWS Berater oder einen Migrationsspezialisten aus Ihrem Unternehmen, um das Formular zur pauschalen Genehmigung für die Firewall-Anfrage einzureichen. | 

## Architektur
<a name="create-an-approval-process-for-firewall-requests-during-a-rehost-migration-to-aws-architecture"></a>

Das folgende Diagramm zeigt die Schritte für den Genehmigungsprozess für Firewallanfragen.

![\[Prozess für die Genehmigung von Firewallanfragen durch ein InfoSec Team während einer Rehost-Migration zur AWS-Cloud.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/cf9b58ad-ab6f-43d3-92da-968529c8d042/images/c672f7ce-6e9f-4dbc-bf2c-4272a6c4432b.png)


## Tools
<a name="create-an-approval-process-for-firewall-requests-during-a-rehost-migration-to-aws-tools"></a>

Sie können Scanner-Tools wie [Palo Alto Networks](https://www.paloaltonetworks.com/) oder [SolarWinds](https://www.solarwinds.com/)zur Analyse und Validierung von Firewalls und IP-Adressen verwenden.

## Epen
<a name="create-an-approval-process-for-firewall-requests-during-a-rehost-migration-to-aws-epics"></a>

### Analysieren Sie die Firewall-Anfrage
<a name="analyze-the-firewall-request"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Analysieren Sie die Ports und IP-Adressen. | Der Absender der Firewall-Anfrage führt eine erste Analyse durch, um die erforderlichen Firewall-Ports und IP-Adressen zu ermitteln. Sobald dieser Vorgang abgeschlossen ist, wird Ihr InfoSec Team aufgefordert, die erforderlichen Ports zu öffnen und die IP-Adressen zuzuordnen. | AWS-Cloud-Ingenieur, Migrationsspezialist | 

### Validieren Sie die Firewall-Anfrage
<a name="validate-the-firewall-request"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Firewall-Informationen. | Der AWS Cloud Techniker vereinbart ein Treffen mit Ihrem InfoSec Team. Während dieses Treffens untersucht und validiert der Techniker die Informationen zur Firewall-Anforderung.In der Regel handelt es sich bei dem Absender der Firewall-Anfrage um dieselbe Person wie der Firewall-Anforderer. Diese Überprüfungsphase kann auf der Grundlage des Feedbacks des Genehmiger iterativ werden, falls etwas beachtet oder empfohlen wird. | AWS-Cloud-Ingenieur, Migrationsspezialist | 
| Aktualisieren Sie das Dokument mit der Firewall-Anforderung. | Nachdem das InfoSec Team sein Feedback geteilt hat, wird das Dokument mit der Firewall-Anforderung bearbeitet, gespeichert und erneut hochgeladen. Dieses Dokument wird nach jeder Iteration aktualisiert.Wir empfehlen, dieses Dokument in einem versionskontrollierten Speicherordner zu speichern. Das bedeutet, dass alle Änderungen nachverfolgt und korrekt angewendet werden. | AWS-Cloud-Ingenieur, Migrationsspezialist | 

### Reichen Sie die Firewall-Anfrage ein
<a name="submit-the-firewall-request"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Reichen Sie die Firewall-Anfrage ein. | Nachdem der Genehmigungsberechtigte für die Firewall-Anfrage die pauschale Genehmigungsanfrage genehmigt hat, reicht der AWS Cloud Techniker die Firewall-Anfrage ein. In der Anfrage werden die Ports angegeben, die geöffnet sein müssen, und die IP-Adressen, die für die Zuordnung und Aktualisierung der erforderlich sind. AWS-KontoSie können Vorschläge machen oder Feedback geben, nachdem die Firewall-Anfrage eingereicht wurde. Wir empfehlen Ihnen, diesen Feedback-Prozess zu automatisieren und alle Änderungen über einen definierten Workflow-Mechanismus zu versenden.  | AWS-Cloud-Ingenieur, Migrationsspezialist | 

## Anlagen
<a name="attachments-cf9b58ad-ab6f-43d3-92da-968529c8d042"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/cf9b58ad-ab6f-43d3-92da-968529c8d042/attachments/attachment.zip)

# EC2 Windows-Instances in ein AWS Managed Services Services-Konto aufnehmen und migrieren
<a name="ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account"></a>

*Anil Kunapareddy und Venkatramana Chintha, Amazon Web Services*

## Zusammenfassung
<a name="ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account-summary"></a>

Dieses Muster erklärt den step-by-step Prozess der Migration und Aufnahme von Amazon Elastic Compute Cloud (Amazon EC2) Windows-Instances in ein Amazon Web Services (AWS) Managed Services (AMS) -Konto. AMS kann Ihnen helfen, die Instance effizienter und sicherer zu verwalten. AMS bietet betriebliche Flexibilität, verbessert Sicherheit und Compliance und hilft Ihnen, Kapazitäten zu optimieren und Kosten zu senken.

Dieses Muster beginnt mit einer EC2 Windows-Instance, die Sie in ein Staging-Subnetz in Ihrem AMS-Konto migriert haben. Für diese Aufgabe stehen eine Vielzahl von Migrationsservices und Tools zur Verfügung, z. B. der AWS Application Migration Service.

Um eine Änderung an Ihrer von AMS verwalteten Umgebung vorzunehmen, erstellen Sie eine Änderungsanforderung (Request for Change, RFC) für einen bestimmten Vorgang oder eine bestimmte Aktion und reichen diese ein. Mithilfe eines AMS Workload Ingest (WIGS) -RFC nehmen Sie die Instance in das AMS-Konto auf und erstellen ein benutzerdefiniertes Amazon Machine Image (AMI). Anschließend erstellen Sie die AMS-verwaltete EC2 Instance, indem Sie einen weiteren RFC zur Erstellung eines Stacks einreichen. EC2 Weitere Informationen finden Sie unter [AMS Workload Ingest](https://docs.aws.amazon.com/managedservices/latest/appguide/ams-workload-ingest.html) in der AMS-Dokumentation.

## Voraussetzungen und Einschränkungen
<a name="ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account-prereqs"></a>

**Voraussetzungen**
+ Ein aktives, von AMS verwaltetes AWS-Konto
+ Eine bestehende landing zone
+ Berechtigungen zum Vornehmen von Änderungen in der von AMS verwalteten VPC
+ Eine Amazon EC2 Windows-Instance in einem Staging-Subnetz in Ihrem AMS-Konto
+ Erfüllung der [allgemeinen Voraussetzungen](https://docs.aws.amazon.com/managedservices/latest/appguide/ex-migrate-instance-prereqs.html) für die Migration von Workloads mithilfe von AMS WIGS
+ Erfüllung der [Windows-Voraussetzungen](https://docs.aws.amazon.com/managedservices/latest/appguide/ex-migrate-prereqs-win.html) für die Migration von Workloads mit AMS WIGS

**Einschränkungen**
+ Dieses Muster gilt für EC2 Instanzen, auf denen Windows Server ausgeführt wird. Dieses Muster gilt nicht für Instanzen, auf denen andere Betriebssysteme wie Linux ausgeführt werden.

## Architektur
<a name="ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account-architecture"></a>

**Quelltechnologie-Stack**

Amazon EC2 Windows-Instance in einem Staging-Subnetz in Ihrem AMS-Konto

**Zieltechnologie-Stack**

Von AWS Managed Services (AMS) verwaltete Amazon EC2 Windows-Instance

**Zielarchitektur**

![\[Prozess zur Migration und Aufnahme von Amazon EC2 Windows-Instances in ein AWS Managed Services Services-Konto.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/393c21cb-b6c6-4446-b597-b62e29fdb7f8/images/0b2fa855-7460-49f8-9e7f-3485e6ce1745.png)


## Tools
<a name="ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account-tools"></a>

**AWS-Services**
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/concepts.html) bietet skalierbare Rechenkapazität in der AWS-Cloud. Sie können Amazon verwenden EC2 , um so viele oder so wenige virtuelle Server zu starten, wie Sie benötigen, und Sie können nach oben oder unten skalieren.
+ [AWS Identity and Access Management (IAM)](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) hilft Ihnen dabei, den Zugriff auf Ihre AWS-Ressourcen sicher zu verwalten, indem kontrolliert wird, wer authentifiziert und autorisiert ist, diese zu verwenden.
+ Mit [AWS Managed Services (AMS)](https://docs.aws.amazon.com/managedservices/?id=docs_gateway) können Sie effizienter und sicherer arbeiten, indem Sie Ihre AWS-Infrastruktur kontinuierlich verwalten, einschließlich Überwachung, Vorfallmanagement, Sicherheitsberatung, Patch-Support und Backup für AWS-Workloads.

**Andere Dienste**
+ [PowerShell](https://learn.microsoft.com/en-us/powershell/)ist ein Automatisierungs- und Konfigurationsverwaltungsprogramm von Microsoft, das unter Windows, Linux und macOS läuft.

## Epen
<a name="ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account-epics"></a>

### Konfigurieren Sie die Einstellungen auf der Instanz
<a name="configure-settings-on-the-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Ändern Sie die DNS-Client-Einstellungen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.html) | Ingenieur für Migration | 
| Ändern Sie die Windows Update-Einstellungen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.html) | Ingenieur für Migration | 
| Aktivieren Sie die Firewall. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.html) | Ingenieur für Migration | 

### Bereiten Sie die Instanz für AMS WIGS vor
<a name="prepare-the-instance-for-ams-wigs"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereinigen Sie die Instanz und bereiten Sie sie vor. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.html) | Ingenieur für Migration | 
| Reparieren Sie die Datei sppnp.dll. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.html) | Ingenieur für Migration | 
| Führen Sie das Pre-WIG-Validierungsskript aus. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.html) | Migrationsingenieur | 
| Erstellen Sie das Failsafe-AMI. | Nachdem die Pre-WIG-Validierung bestanden wurde, erstellen Sie wie folgt ein Pre-Ingestion-AMI:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.html)Weitere Informationen finden Sie unter [AMI \$1 Create](https://docs.aws.amazon.com/managedservices/latest/ctref/deployment-advanced-ami-create.html) in der AMS-Dokumentation. | Ingenieur für Migration | 

### Investieren und validieren Sie die Instanz
<a name="ingest-and-validate-the-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Reichen Sie den RFC ein, um den Workload-Ingest-Stack zu erstellen. | Reichen Sie eine Änderungsanforderung (RFC) ein, um das AMS WIGS zu starten. Anweisungen finden Sie unter [Workload Ingest Stack: Creating](https://docs.aws.amazon.com/managedservices/latest/appguide/ex-workload-ingest-col.html) in der AMS-Dokumentation. Dadurch wird die Workload-Aufnahme gestartet und die gesamte von AMS benötigte Software installiert, einschließlich Backup-Tools, EC2 Amazon-Verwaltungssoftware und Antivirensoftware. | Ingenieur für Migration | 
| Bestätigen Sie die erfolgreiche Migration. | Nachdem die Workload-Erfassung abgeschlossen ist, können Sie die AMS-verwaltete Instance und das AMS-aufgenommene AMI sehen.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.html) | Ingenieur für Migration | 

### Starten Sie die Instanz im AMS-Zielkonto
<a name="launch-the-instance-in-the-target-ams-account"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Reichen Sie den RFC ein, um einen EC2 Stack zu erstellen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.html) | Ingenieur für Migration | 

## Zugehörige Ressourcen
<a name="ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account-resources"></a>

**AWS Prescriptive Guidance**
+ [Automatisieren Sie Aktivitäten zur Erfassung vor dem Workload für AWS Managed Services unter Windows](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/automate-pre-workload-ingestion-activities-for-aws-managed-services-on-windows.html)
+ [Automatisches Erstellen eines RFC in AMS mit Python](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/automatically-create-an-rfc-in-ams-using-python.html?did=pg_card&trk=pg_card)

**AMS-Dokumentation**
+ [Erfassung von AMS-Workloads](https://docs.aws.amazon.com/managedservices/latest/appguide/ams-workload-ingest.html)
+ [Wie die Migration Ihre Ressourcen verändert](https://docs.aws.amazon.com/managedservices/latest/appguide/ex-migrate-changes.html)
+ [Migration von Workloads: Standardprozess](https://docs.aws.amazon.com/managedservices/latest/appguide/mp-migrate-stack-process.html)

**Ressourcen für Marketing**
+ [AWS Managed Services](https://aws.amazon.com/managed-services/)
+ [AWS Managed Services FAQs](https://aws.amazon.com/managed-services/faqs/)
+ [Ressourcen für AWS Managed Services](https://aws.amazon.com/managed-services/resources/)
+ [Funktionen von AWS Managed Services](https://aws.amazon.com/managed-services/features/)

# Migrieren Sie eine Couchbase Server-Datenbank zu Amazon EC2
<a name="migrate-couchbase-server-ec2"></a>

*Subhani Shaik, Amazon Web Services*

## Zusammenfassung
<a name="migrate-couchbase-server-ec2-summary"></a>

Dieses Muster beschreibt, wie Sie Couchbase Server von einer lokalen Umgebung auf Amazon Elastic Compute Cloud (Amazon EC2) migrieren können. AWS

Couchbase Server ist eine verteilte NoSQL-Datenbank (JSON-Dokument), die relationale Datenbankfunktionen bietet. Die Migration einer Couchbase Server-Datenbank AWS kann zu erhöhter Skalierbarkeit, verbesserter Leistung, Kosteneffizienz, verbesserter Sicherheit, vereinfachter Verwaltung und globaler Reichweite führen, was Anwendungen zugute kommen kann, die Datenzugriff mit hoher Verfügbarkeit und geringer Latenz erfordern. Außerdem erhalten Sie über AWS Managed Services Zugriff auf erweiterte Funktionen. 

Couchbase Server on AWS bietet die folgenden Hauptfunktionen: 
+ Architektur, bei der der Arbeitsspeicher im Vordergrund steht
+ Hohe Verfügbarkeit, Notfallwiederherstellung und Lastenausgleich
+ Bereitstellung auf mehreren Mastern und in mehreren Regionen für optimale Leistung

Weitere Informationen zu den wichtigsten Vorteilen finden Sie im Abschnitt [Zusätzliche Informationen](#migrate-couchbase-server-ec2-additional) und auf der [Couchbase-Website](https://www.couchbase.com/partners/amazon/).

## Voraussetzungen und Einschränkungen
<a name="migrate-couchbase-server-ec2-prereqs"></a>

**Voraussetzungen**
+ Eine aktive AWS-Konto mit einer Virtual Private Cloud (VPC), zwei Availability Zones, privaten Subnetzen und einer Sicherheitsgruppe. Anweisungen finden Sie unter [Erstellen einer VPC](https://docs.aws.amazon.com/vpc/latest/userguide/create-vpc.html) in der Dokumentation zu Amazon Virtual Private Cloud (Amazon VPC).
+ Konnektivität zwischen Quell- und Zielumgebungen aktiviert. [Informationen zu den von Couchbase Server verwendeten TCX-Ports finden Sie in der Couchbase-Dokumentation.](https://docs.couchbase.com/server/current/install/install-ports.html)

## Architektur
<a name="migrate-couchbase-server-ec2-architecture"></a>

Das folgende Diagramm zeigt die High-Level-Architektur für die Migration von Couchbase Server zu. AWS

![\[Migrationsarchitektur für das Rehosting von Couchbase Server auf AWS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/4cedced2-3528-4f12-b19e-7d389e820cc1/images/ac22133a-895f-4999-b1e1-57f69e83a326.png)


Aus dem lokalen Couchbase-Cluster werden Daten über ein Kunden-Gateway übertragen, indem [AWS Direct Connect](https://aws.amazon.com/directconnect/) Die Daten passieren einen Router und eine Direct Connect Route und erreichen die VPC über ein [AWS Virtual Private Network (Site-to-Site VPN)](https://aws.amazon.com/vpn/) -Gateway. Die VPC enthält eine EC2 Instanz, auf der Couchbase Server ausgeführt wird. Die AWS Infrastruktur umfasst auch [AWS Identity and Access Management (IAM)](https://aws.amazon.com/iam/) für die Zugriffskontrolle, [AWS Key Management Service (AWS KMS)](https://aws.amazon.com/kms/) für die Datenverschlüsselung, [Amazon Elastic Block Store (Amazon EBS)](https://aws.amazon.com/ebs/) für Blockspeicher und [Amazon Simple Storage Service (Amazon S3)](https://aws.amazon.com/s3/) für die Datenspeicherung.

## Tools
<a name="migrate-couchbase-server-ec2-tools"></a>

**AWS-Services**
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/concepts.html) bietet skalierbare Rechenkapazität in der AWS Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.
+ [AWS Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html)verbindet Ihr internes Netzwerk über ein Standard-Ethernet-Glasfaserkabel mit einem Direct Connect Standort. Mit dieser Verbindung können Sie virtuelle Schnittstellen direkt zur Öffentlichkeit einrichten AWS-Services und dabei Internetdienstanbieter in Ihrem Netzwerkpfad umgehen.

## Best Practices
<a name="migrate-couchbase-server-ec2-best-practices"></a>
+ [Installation und Konfiguration von Couchbase](https://docs.couchbase.com/server/current/install/install-intro.html) auf verschiedenen Betriebsplattformen
+ [Bewährte Methoden](https://docs.couchbase.com/server/current/cloud/couchbase-cloud-deployment.html#aws-best-practices) für die Bereitstellung von Couchbase Server auf AWS
+ [Einen Couchbase-Cluster erstellen](https://docs.couchbase.com/server/current/manage/manage-nodes/create-cluster.html)
+ [Bewährte Methoden zur Leistung von Couchbase-Anwendungen](https://docs.couchbase.com/dotnet-sdk/current/project-docs/performance.html)
+ [Bewährte Sicherheitsmethoden für Couchbase](https://docs.couchbase.com/server/current/learn/security/security-overview.html) Server
+ [Bewährte Speichermethoden](https://www.couchbase.com/forums/t/what-is-the-best-document-storage-strategy-in-couchbase/1573) für Couchbase Server-Datenbanken

## Epen
<a name="migrate-couchbase-server-ec2-epics"></a>

### Stellen Sie eine EC2 Amazon-Instance für Couchbase Server bereit
<a name="deploy-an-ec2-instance-for-couchbase-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Öffnen Sie die EC2 Amazon-Konsole. | Melden Sie sich bei der an [AWS-Managementkonsole](https://console.aws.amazon.com/)und öffnen Sie die [ EC2 Amazon-Konsole](https://console.aws.amazon.com/ec2/). | DevOps Ingenieur, Couchbase-Administrator | 
| Stellen Sie eine EC2 Amazon-Instance bereit. | Starten Sie eine EC2 Instance, die den lokalen Couchbase Server-Konfigurationen entspricht. Weitere Informationen zur Bereitstellung einer EC2 Instance finden Sie unter [Starten einer EC2 Amazon-Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/LaunchingAndUsingInstances.html) in der EC2 Amazon-Dokumentation. | DevOps Ingenieur, Couchbase-Administrator | 

### Installieren und konfigurieren Sie Couchbase Server auf Amazon EC2
<a name="install-and-configure-couchbase-server-on-ec2"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie einen Couchbase-Cluster. | Lesen Sie die [Bereitstellungsrichtlinien für Couchbase Server](https://docs.couchbase.com/server/current/install/install-production-deployment.html), bevor Sie Couchbase Server auf Amazon installieren. EC2[Informationen zur Installation von Couchbase Server finden Sie in der Couchbase Server-Dokumentation](https://docs.couchbase.com/server/current/install/install-intro.html) | Couchbase-Administrator | 
| Konfigurieren Sie den Cluster. | Informationen zur Konfiguration des Clusters finden Sie unter [Cluster-Konfigurationsoptionen](https://docs.couchbase.com/cloud/clusters/databases.html#cluster-configuration-options) in der Couchbase-Dokumentation. | Couchbase-Administrator | 

### Fügen Sie einen neuen Knoten hinzu und gleichen Sie den Couchbase-Cluster neu aus
<a name="add-a-new-node-and-rebalance-the-couchbase-cluster"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fügen Sie einen Knoten für die EC2 Instanz hinzu. | Fügen Sie die neu bereitgestellte EC2 Instanz, auf der Couchbase installiert ist, dem vorhandenen lokalen Cluster hinzu. Anweisungen finden [Sie in der Couchbase Server-Dokumentation unter Knoten hinzufügen und Rebalancing](https://docs.couchbase.com/server/current/manage/manage-nodes/add-node-and-rebalance.html) durchführen. | Couchbase-Administrator | 
| Den Cluster neu ausbalancieren. | Durch den Rebalancing-Prozess wird der neu hinzugefügte Knoten mit der EC2 Instanz zu einem aktiven Mitglied des Couchbase-Clusters. Anweisungen finden [Sie in der Couchbase Server-Dokumentation unter Knoten hinzufügen und Rebalancing](https://docs.couchbase.com/server/current/manage/manage-nodes/add-node-and-rebalance.html) durchführen | Couchbase-Administrator | 

### Verbindungen neu konfigurieren
<a name="reconfigure-connections"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Entfernen Sie die lokalen Knoten und führen Sie eine Neuverteilung durch. | Sie können jetzt die lokalen Knoten aus dem Cluster entfernen. Nachdem Sie die Knoten entfernt haben, folgen Sie dem Rebalance-Prozess, um Daten, Indizes, Ereignis- und Abfrageverarbeitung auf die verfügbaren Knoten im Cluster neu zu verteilen. Anweisungen finden [Sie in der Couchbase Server-Dokumentation unter Knoten entfernen und neu](https://docs.couchbase.com/server/current/manage/manage-nodes/remove-node-and-rebalance.html) verteilen. | Couchbase-Administrator | 
| Aktualisieren Sie die Verbindungsparameter. | Aktualisieren Sie die Verbindungsparameter Ihrer Anwendung, sodass sie die neue EC2 Amazon-IP-Adresse verwenden, damit Ihre Anwendung eine Verbindung zum neuen Knoten herstellen kann. | Entwickler der Couchbase-Anwendung | 

## Zugehörige Ressourcen
<a name="migrate-couchbase-server-ec2-resources"></a>
+ [Couchbase Server-Dienste](https://docs.couchbase.com/server/current/learn/services-and-indexes/services/services.html)
+ [Stellen Sie Couchbase Server bereit mit AWS Marketplace](https://docs.couchbase.com/server/current/cloud/couchbase-aws-marketplace.html)
+ [Connect zum Couchbase Server her](https://docs.couchbase.com/server/current/guides/connect.html)
+ [Buckets verwalten](https://docs.couchbase.com/server/current/manage/manage-buckets/bucket-management-overview.html)
+ [Rechenzentrumsübergreifende Replikation (XDCR)](https://docs.couchbase.com/server/current/learn/clusters-and-availability/xdcr-overview.html)
+ [Lizenzvereinbarung von Couchbase Inc.](https://www.couchbase.com/LA20190115/)

## Zusätzliche Informationen
<a name="migrate-couchbase-server-ec2-additional"></a>

**Die wichtigsten Vorteile**

Die Migration Ihrer Couchbase-Datenbank zu AWS bietet die folgenden Vorteile:

**Skalierbarkeit**. Sie können Ihren Couchbase-Cluster je nach Bedarf nach oben oder unten skalieren, ohne physische Hardware verwalten zu müssen, sodass Sie schwankende Datenmengen und Anwendungsnutzung problemlos bewältigen können. AWS bietet:
+ Optionen für die vertikale und horizontale Skalierung
+ Funktionen [für den weltweiten Einsatz](https://aws.amazon.com/about-aws/global-infrastructure/)
+ Lastenausgleich zwischen AWS-Regionen
+ [Lösungen zur Datenbankskalierung](https://aws.amazon.com/blogs/database/scaling-your-amazon-rds-instance-vertically-and-horizontally/)
+ Optimierung der [Inhaltsbereitstellung](https://aws.amazon.com/solutions/content-delivery/)

**Optimierung der Leistung**. AWS bietet eine leistungsstarke Netzwerkinfrastruktur und [optimierte Instanztypen](https://aws.amazon.com/ec2/instance-types/), um einen schnellen Datenzugriff und eine geringe Latenz für Ihre Couchbase-Datenbank zu gewährleisten.
+ Optionen für [Hochleistungsrechnen (HPC)](https://aws.amazon.com/hpc/)
+ Weltweite Bereitstellung von Inhalten über [Amazon CloudFront](https://aws.amazon.com/cloudfront/)
+ Mehrere [Speicheroptionen](https://aws.amazon.com/products/storage/)
+ Erweiterte [Datenbankservices](https://aws.amazon.com/products/databases/), einschließlich Amazon Relational Database Service (Amazon RDS) und Amazon DynamoDB
+ Verbindungen mit niedriger Latenz mit [Direct Connect](https://aws.amazon.com/directconnect/)

**Kostenoptimierung** Wählen Sie den geeigneten Instance-Typ und die entsprechende Konfiguration aus, um Leistung und Kosten auf der Grundlage Ihrer Arbeitslast in Einklang zu bringen. Zahlen Sie nur für die Ressourcen, die Sie tatsächlich nutzen. Dadurch können Sie potenziell Ihre Betriebskosten senken, da Sie keine Hardware vor Ort verwalten müssen und AWS Cloud Skaleneffekte nutzen.
+ [Reserved Instances](https://aws.amazon.com/ec2/pricing/reserved-instances/) können Ihnen helfen, vorausschauend zu planen und Ihre Kosten erheblich zu senken, wenn Sie Couchbase on verwenden. AWS
+ Die [automatische Skalierung](https://aws.amazon.com/autoscaling/) verhindert eine übermäßige Bereitstellung und hilft Ihnen, Ihre Auslastung und Kosteneffizienz zu optimieren.

**Verbesserte Sicherheit.** Profitieren Sie von den robusten Sicherheitsfunktionen wie Datenverschlüsselung AWS, Zugriffskontrollen und Sicherheitsgruppen, um die vertraulichen Daten, die Sie in Couchbase speichern, zu schützen. Zusätzliche Vorteile:
+ Das [Modell der AWS gemeinsamen Verantwortung](https://aws.amazon.com/compliance/shared-responsibility-model/) unterscheidet klar zwischen der Sicherheit *der* Cloud (AWS Verantwortung) und der Sicherheit *in* der Cloud (Kundenverantwortung).
+ [AWS Die Einhaltung der Vorschriften](https://aws.amazon.com/compliance/) unterstützt wichtige Sicherheitsstandards.
+ AWS bietet erweiterte [Verschlüsselungsoptionen](https://docs.aws.amazon.com/prescriptive-guidance/latest/encryption-best-practices/welcome.html).
+ [AWS Identity and Access Management (IAM)](https://aws.amazon.com/iam/) unterstützt Sie bei der Verwaltung des sicheren Zugriffs auf Ihre Ressourcen.

**Vereinfachtes Management**. AWS bietet verwaltete Dienste für Couchbase, sodass Sie sich auf die Anwendungsentwicklung konzentrieren können, anstatt die zugrunde liegende Infrastruktur zu verwalten.

**Globale Reichweite**. Sie können Ihren Couchbase-Cluster auf mehreren Servern einsetzen, AWS-Regionen um eine geringe Latenz für Benutzer auf der ganzen Welt zu erreichen. Sie können Ihre Datenbanken vollständig in der Cloud oder in einer Hybridumgebung bereitstellen. Sie können Ihre Daten mit integrierter Sicherheit auf Unternehmensniveau und schneller, effizienter bidirektionaler Synchronisation von Daten vom Edge bis zur Cloud schützen. Gleichzeitig können Sie die Entwicklung mit einem konsistenten Programmiermodell für die Erstellung von Web- und mobilen Apps vereinfachen.

**Geschäftskontinuität**:
+ **Datensicherung und Wiederherstellung**. Im Falle eines Problems können Sie damit [AWS Backup](https://aws.amazon.com/backup/)die Datenstabilität und die einfache Wiederherstellung sicherstellen. Optionen für die Notfallwiederherstellung finden Sie in der [AWS Well-Architected Framework-Dokumentation](https://docs.aws.amazon.com/whitepapers/latest/disaster-recovery-workloads-on-aws/disaster-recovery-options-in-the-cloud.html).
+ **Bereitstellung von Couchbase in mehreren Regionen**: Um eine Couchbase-Datenbank in einer AWS Umgebung mit mehreren Regionen bereitzustellen, können Sie Couchbase Server in abonnieren, [AWS CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html)Vorlagen verwenden, um separate Couchbase-Cluster in jeder Region zu erstellen [AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-zy5g2wqmqdyzw), und dann die regionsübergreifende Replikation konfigurieren, um Daten zwischen Regionen zu synchronisieren. Diese Konfiguration gewährleistet eine hohe Verfügbarkeit und geografische Redundanz in mehreren Regionen. Weitere Informationen finden Sie unter [Deploy Couchbase Server Using AWS Marketplace](https://docs.couchbase.com/server/current/cloud/couchbase-aws-marketplace.html) in der Couchbase-Dokumentation.

**Agilität** der Infrastruktur:
+ Schnelle Bereitstellung und [Deprovisionierung von Ressourcen](https://aws.amazon.com/products/management-and-governance/use-cases/provisioning-and-orchestration/)
+ [Globale Reichweite der Infrastruktur](https://aws.amazon.com/about-aws/global-infrastructure/regions_az/)
+ [Automatische Skalierung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) je nach Bedarf
+ [Infrastructure as Code (IaC)](https://aws.amazon.com/what-is/iac/) für konsistente Bereitstellungen
+ Mehrere [Instance-Typen](https://aws.amazon.com/ec2/instance-types/), die für unterschiedliche Workloads optimiert sind

Förderung von **Innovationen:**
+ [Zugang zu den neuesten Technologien, einschließlich [KI/ML](https://aws.amazon.com/ai/generative-ai/), [IoT und Analytik](https://aws.amazon.com/iot/)](https://aws.amazon.com/big-data/datalakes-and-analytics/)
+ [Verwaltete Services](https://aws.amazon.com/blogs/architecture/reduce-operational-load-using-aws-managed-services-for-your-data-solutions/), die den betrieblichen Aufwand reduzieren
+ [Moderne Verfahren zur Anwendungsentwicklung](https://aws.amazon.com/modern-apps/)
+ [Serverlose](https://aws.amazon.com/serverless/) Computeroptionen

**Operative Exzellenz**:
+ [Zentralisierte Überwachung und Protokollierung](https://docs.aws.amazon.com/prescriptive-guidance/latest/designing-control-tower-landing-zone/logging-monitoring.html)
+ [Automatisiertes Ressourcenmanagement](https://aws.amazon.com/systems-manager/)
+ [Funktionen für vorausschauende Wartung](https://aws.amazon.com/what-is/predictive-maintenance/)
+ [Verbesserter Einblick](https://aws.amazon.com/about-aws/whats-new/2024/12/amazon-cloudwatch-provides-centralized-visibility-telemetry-configurations/) in die Ressourcennutzung
+ [Optimierte Bereitstellungsprozesse](https://aws.amazon.com/blogs/mt/streamline-change-processes-and-improve-governance-with-aws-well-architected/)

**Möglichkeiten zur Modernisierung**:
+ [Microservices-Architektur](https://aws.amazon.com/microservices/)
+ [DevOps](https://aws.amazon.com/devops/)praktiziert die Implementierung
+ [Cloud-native](https://aws.amazon.com/what-is/cloud-native/) Anwendungsentwicklung
+ [Modernisierung älterer Anwendungen](https://docs.aws.amazon.com/prescriptive-guidance/latest/strategy-modernizing-applications/welcome.html)

**Wettbewerbsvorteile**:
+ [Schnellere Markteinführung](https://aws.amazon.com/blogs/smb/accelerate-time-to-market-and-business-growth-with-an-automated-software-as-a-service-platform/)
+ Verbessertes [Kundenerlebnis](https://aws.amazon.com/blogs/publicsector/improving-customer-experience-for-the-public-sector-using-aws-services/)
+ [Datengestützte Entscheidungsfindung](https://aws.amazon.com/data/data-driven-decision-making/)
+ Verbesserte [Geschäftsintelligenz](https://aws.amazon.com/what-is/business-intelligence/)

# Migrieren Sie Db2 for LUW zu Amazon, EC2 indem Sie den Protokollversand verwenden, um die Ausfallzeit zu reduzieren
<a name="migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time"></a>

*Feng Cai, Ambarish Satarkar und Saurabh Sharma, Amazon Web Services*

## Zusammenfassung
<a name="migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time-summary"></a>

Wenn Kunden ihre IBM Db2 for LUW-Workloads (Linux, UNIX und Windows) zu Amazon Web Services (AWS) migrieren, ist die Verwendung von Amazon Elastic Compute Cloud (Amazon EC2) mit dem Bring Your Own License (BYOL) -Modell der schnellste Weg. Die Migration großer Datenmengen von lokalem Db2 nach AWS kann jedoch eine Herausforderung sein, insbesondere wenn das Ausfallfenster kurz ist. Viele Kunden versuchen, das Ausfallfenster auf weniger als 30 Minuten festzulegen, sodass wenig Zeit für die Datenbank selbst bleibt.

Dieses Muster beschreibt, wie eine Db2-Migration mit einem kurzen Ausfallfenster mithilfe des Transaktionsprotokollversands durchgeführt werden kann. Dieser Ansatz gilt für Db2 auf einer Little-Endian-Linux-Plattform.

## Voraussetzungen und Einschränkungen
<a name="migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Db2-Instance, die auf einer EC2 Instance ausgeführt wird, die den lokalen Dateisystem-Layouts entspricht
+ Ein Amazon Simple Storage Service (Amazon S3) -Bucket, auf den die EC2 Instance zugreifen kann
+ Eine Richtlinie und Rolle für AWS Identity and Access Management (IAM) für programmatische Aufrufe an Amazon S3
+ Synchronisierte Zeitzone und Systemuhren auf Amazon EC2 und dem lokalen Server
+ Das lokale Netzwerk, das über AWS [ Site-to-SiteVPN oder AWS AWS](https://aws.amazon.com/vpn/) [Direct](https://aws.amazon.com/directconnect/) Connect verbunden ist

**Einschränkungen**
+ Die lokale Db2-Instance und Amazon EC2 müssen sich auf derselben [Plattformfamilie](https://www.ibm.com/docs/en/db2/11.1?topic=dbrs-backup-restore-operations-between-different-operating-systems-hardware-platforms) befinden.
+ Der lokale Db2-Workload muss protokolliert werden. Um alle nicht protokollierten Transaktionen zu blockieren, legen Sie dies `blocknonlogged=yes` in der Datenbankkonfiguration fest.

**Versionen der Produkte**
+ Db2 für LUW Version 11.5.9 und höher

## Architektur
<a name="migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time-architecture"></a>

**Quelltechnologie-Stack**
+ Db2 auf Linux x86\$164****

**Zieltechnologie-Stack**
+ Amazon EBS
+ Amazon EC2
+ AWS Identity and Access Management (IAM)
+ Amazon S3
+ AWS Site-to-Site VPN oder Direct Connect

**Zielarchitektur**

Das folgende Diagramm zeigt eine lokal ausgeführte Db2-Instance mit einer VPN-Verbindung (Virtual Private Network) zu Db2 auf Amazon. EC2 Die gepunkteten Linien stellen den VPN-Tunnel zwischen Ihrem Rechenzentrum und der AWS-Cloud dar.

![\[Workflow zur Durchführung einer Db2-Migration innerhalb eines kurzen Ausfallzeitfensters mithilfe des Transaktions-Log-Versands.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/7dec6e4a-a92e-4204-9e42-f89d7dcafbfa/images/a7e1c1d6-2ec1-4271-952d-a58260ad7c81.png)


## Tools
<a name="migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time-tools"></a>

**AWS-Services**
+ [AWS Command Line Interface (AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-welcome.html) ist ein Open-Source-Tool, mit dem Sie über Befehle in Ihrer Befehlszeilen-Shell mit AWS-Services interagieren können.
+ [AWS Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html) verbindet Ihr internes Netzwerk über ein Standard-Ethernet-Glasfaserkabel mit einem Direct Connect-Standort. Mit dieser Verbindung können Sie virtuelle Schnittstellen direkt zu öffentlichen AWS-Services erstellen und dabei Internetdienstanbieter in Ihrem Netzwerkpfad umgehen.
+ [Amazon Elastic Block Store (Amazon EBS)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AmazonEBS.html) bietet Speichervolumes auf Blockebene zur Verwendung mit Amazon Elastic Compute Cloud (Amazon EC2) -Instances.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/) bietet skalierbare Rechenkapazität in der AWS-Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.
+ [AWS Identity and Access Management (IAM)](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) hilft Ihnen dabei, den Zugriff auf Ihre AWS-Ressourcen sicher zu verwalten, indem kontrolliert wird, wer authentifiziert und autorisiert ist, diese zu verwenden.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.
+ Mit [AWS Site-to-Site VPN](https://docs.aws.amazon.com/vpn/latest/s2svpn/VPC_VPN.html) können Sie den Datenverkehr zwischen Instances, die Sie auf AWS starten, und Ihrem eigenen Remote-Netzwerk weiterleiten.

**Andere Tools**
+ [db2cli](https://www.ibm.com/docs/en/db2/11.5?topic=commands-db2cli-db2-interactive-cli) ist der interaktive Db2-CLI-Befehl.

## Best Practices
<a name="migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time-best-practices"></a>
+ Verwenden Sie in der Zieldatenbank [Gateway-Endpunkte für Amazon S3](https://docs.aws.amazon.com/vpc/latest/privatelink/vpc-endpoints-s3.html), um auf das Datenbank-Backup-Image und die Protokolldateien in Amazon S3 zuzugreifen.
+ Verwenden Sie in der Quelldatenbank [AWS PrivateLink für Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/privatelink-interface-endpoints.html), um das Datenbank-Backup-Image und die Protokolldateien an Amazon S3 zu senden.

## Epen
<a name="migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time-epics"></a>

### Festlegen von Umgebungsvariablen
<a name="set-environment-variables"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Legen Sie Umgebungsvariablen fest. | Dieses Muster verwendet die folgenden Namen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time.html)Sie können sie an Ihre Umgebung anpassen. | DBA | 

### Konfigurieren Sie den lokalen Db2-Server
<a name="configure-the-on-premises-db2-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Einrichten des AWS CLI. | Führen Sie die folgenden Befehle aus, um die neueste Version der AWS-CLI herunterzuladen und zu installieren:<pre>$ curl "https://awscli.amazonaws.com/awscli-exe-linux-x86_64.zip" -o "awscliv2.zip"<br />unzip awscliv2.zip<br />sudo ./aws/install</pre> | Linux-Administrator | 
| Richten Sie ein lokales Ziel für Db2-Archivprotokolle ein. | Um die Zieldatenbank auf Amazon EC2 mit der lokalen Quelldatenbank synchron zu halten, müssen die neuesten Transaktionsprotokolle von der Quelle abgerufen werden.In diesem Setup `/db2logs` wird von `LOGARCHMETH2` On the Source als Staging-Bereich festgelegt. Die archivierten Protokolle in diesem Verzeichnis werden mit Amazon S3 synchronisiert und von Db2 auf Amazon abgerufen. EC2 Das Muster wird verwendet`LOGARCHMETH2`, weil `LOGARCHMETH1` es möglicherweise für die Verwendung eines Drittanbietertools konfiguriert wurde, auf das der AWS-CLI-Befehl nicht zugreifen kann. Führen Sie den folgenden Befehl aus, um die Protokolle abzurufen: <pre>db2 connect to sample<br />db2 update db cfg for SAMPLE using LOGARCHMETH2 disk:/db2logs</pre> | DBA | 
| Führen Sie eine Online-Datenbanksicherung durch. | Führen Sie eine Online-Datenbanksicherung aus und speichern Sie sie im lokalen Backup-Dateisystem: <pre>db2 backup db sample online to /backup </pre> | DBA | 

### Richten Sie den S3-Bucket und die IAM-Richtlinie ein
<a name="set-up-the-s3-bucket-and-iam-policy"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen S3-Bucket. | Erstellen Sie einen S3-Bucket für den lokalen Server, an den die Backup-DB2-Images und Protokolldateien auf AWS gesendet werden sollen. Auf den Bucket wird auch Amazon zugreifen EC2:<pre>aws s3api create-bucket --bucket logshipmig-db2 --region us-east-1 </pre> | AWS-Systemadministrator | 
|  Erstellen Sie eine IAM-Richtlinie. | Die `db2bucket.json` Datei enthält die IAM-Richtlinie für den Zugriff auf den Amazon S3 S3-Bucket:<pre>{<br />    "Version": "2012-10-17",		 	 	 <br />    "Statement": [<br />        {<br />            "Effect": "Allow",<br />            "Action": [<br />                "kms:GenerateDataKey",<br />                "kms:Decrypt",<br />                "s3:PutObject",<br />                "s3:GetObject",<br />                "s3:AbortMultipartUpload",<br />                "s3:ListBucket",<br />                "s3:DeleteObject",<br />                "s3:GetObjectVersion",<br />                "s3:ListMultipartUploadParts"<br />            ],<br />            "Resource": [<br />                "arn:aws:s3:::logshipmig-db2/*",<br />                "arn:aws:s3:::logshipmig-db2"<br />            ]<br />        }<br />    ]<br />}</pre>Verwenden Sie den folgenden AWS-CLI-Befehl, um die Richtlinie zu erstellen:<pre>aws iam create-policy \<br />      --policy-name db2s3policy \<br />      --policy-document file://db2bucket.json </pre> Die JSON-Ausgabe zeigt den Amazon-Ressourcennamen (ARN) für die Richtlinie, wobei `aws_account_id` es sich um Ihre Konto-ID handelt:<pre>"Arn": "arn:aws:iam::aws_account_id:policy/db2s3policy"</pre> | AWS-Administrator, AWS-Systemadministrator | 
| Hängen Sie die IAM-Richtlinie an die von der Instance verwendete IAM-Rolle an EC2 . | In den meisten AWS-Umgebungen hat eine laufende EC2 Instance eine IAM-Rolle, die von Ihrem Systemadministrator festgelegt wurde. Wenn die IAM-Rolle nicht festgelegt ist, erstellen Sie die Rolle und wählen Sie in der EC2 Konsole **IAM-Rolle modifizieren aus, um die Rolle** der EC2 Instance zuzuordnen, die die Db2-Datenbank hostet. Hängen Sie die IAM-Richtlinie mit dem Richtlinien-ARN an die IAM-Rolle an:<pre>aws iam attach-role-policy \<br />    --policy-arn "arn:aws:iam::aws_account_id:policy/db2s3policy"  \<br />    --role-name db2s3role  </pre>Nachdem die Richtlinie angehängt wurde, kann jede EC2 Instance, die der IAM-Rolle zugeordnet ist, auf den S3-Bucket zugreifen. | AWS-Administrator, AWS-Systemadministrator | 

### Senden Sie das Backup-Image und die Protokolldateien der Quelldatenbank an Amazon S3
<a name="send-the-source-database-backup-image-and-log-files-to-amazon-s3"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie die AWS-CLI auf dem lokalen Db2-Server. | Konfigurieren Sie die AWS-CLI mit dem `Access Key ID` und, das im vorherigen Schritt `Secret Access Key` generiert wurde:<pre>$ aws configure <br />AWS Access Key ID [None]: *************<br />AWS Secret Access Key [None]: ***************************<br />Default region name [None]: us-east-1<br />Default output format [None]: json</pre>  | AWS-Administrator, AWS-Systemadministrator | 
| Senden Sie das Backup-Image an Amazon S3. | Zuvor wurde ein Online-Datenbank-Backup im `/backup` lokalen Verzeichnis gespeichert. Führen Sie den folgenden Befehl aus, um dieses Backup-Image an den S3-Bucket zu senden:<pre>aws s3 sync /backup s3://logshipmig-db2/SAMPLE_backup</pre> | AWS-Administrator, Migrationsingenieur | 
| Senden Sie die Db2-Archivprotokolle an Amazon S3. | Synchronisieren Sie die lokalen Db2-Archivprotokolle mit dem S3-Bucket, auf den die Db2-Zielinstanz bei Amazon zugreifen kann: EC2<pre>aws s3 sync /db2logs s3://logshipmig-db2/SAMPLE_LOG</pre>Führen Sie diesen Befehl regelmäßig mithilfe von Cron oder anderen Planungstools aus. Die Häufigkeit hängt davon ab, wie oft die Quelldatenbank Transaktionsprotokolldateien archiviert.  | AWS-Administrator, Migrationsingenieur | 

### Connect Db2 on Amazon mit Amazon EC2 S3 und starten Sie die Datenbanksynchronisierung
<a name="connect-db2-on-amazon-ec2-to-amazon-s3-and-start-the-database-sync"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen PKCS12 Keystore. | Db2 verwendet einen PKCS-Verschlüsselungs-Keystore (Public-Key Cryptography Standards), um den AWS-Zugriffsschlüssel zu schützen. Erstellen Sie einen Keystore und konfigurieren Sie die Db2-Quellinstanz so, dass sie ihn verwendet:<pre>gsk8capicmd_64 -keydb -create -db "/home/db2inst1/.keystore/db2s3.p12" -pw "<password>" -type pkcs12 -stash <br /> <br />db2 "update dbm cfg using keystore_location /home/db2inst1/.keystore/db2s3.p12 keystore_type pkcs12"</pre> | DBA | 
| Erstellen Sie den Alias für den Db2-Speicherzugriff. | Verwenden Sie die folgende Skriptsyntax, um den [Alias für den Speicherzugriff](https://www.ibm.com/docs/en/db2/11.5?topic=commands-catalog-storage-access) zu erstellen:`db2 "catalog storage access alias <alias_name> vendor S3 server <S3 endpoint> container '<bucket_name>'"`Ihr Skript könnte beispielsweise wie folgt aussehen: `db2 "catalog storage access alias DB2AWSS3 vendor S3 server s3.us-east-1.amazonaws.com container 'logshipmig-db2'" ` | DBA | 
| Stellen Sie den Bereitstellungsbereich ein. | Standardmäßig verwendet Db2 `DB2_OBJECT_STORAGE_LOCAL_STAGING_PATH` als Staging-Bereich zum Hoch- und Herunterladen von Dateien zu und von Amazon S3. Der Standardpfad befindet sich `sqllib/tmp/RemoteStorage.xxxx` im Home-Verzeichnis der Instance und `xxxx` bezieht sich auf die Db2-Partitionsnummer. Beachten Sie, dass der Staging-Bereich über genügend Kapazität für die Backup-Images und Protokolldateien verfügen muss. Sie können die Registrierung verwenden, um den Staging-Bereich auf ein anderes Verzeichnis zu verweisen.Wir empfehlen außerdem`DB2_ENABLE_COS_SDK=ON`, und den Link zur `awssdk` Bibliothek zu verwenden`DB2_OBJECT_STORAGE_SETTINGS=EnableStreamingRestore`, um den Amazon S3 S3-Staging-Bereich für Datenbanksicherungen und -wiederherstellungen zu umgehen:<pre>#By root:<br />cp -rp /home/db2inst1/sqllib/lib64/awssdk/RHEL/7.6/* /home/db2inst1/sqllib/lib64/<br /><br />#By db2 instance owner:<br />db2set DB2_OBJECT_STORAGE_LOCAL_STAGING_PATH=/db2stage<br />db2set DB2_ENABLE_COS_SDK=ON<br />Db2set DB2_OBJECT_STORAGE_SETTINGS=EnableStreamingRestore<br />db2stop<br />db2start</pre> | DBA | 
| Stellen Sie die Datenbank aus dem Backup-Image wieder her. | Stellen Sie die Zieldatenbank auf Amazon EC2 aus dem Backup-Image im S3-Bucket wieder her:<pre>db2 restore db sample from DB2REMOTE://DB2AWSS3/logshipmig-db2/SAMPLE_backup replace existing</pre> | DBA | 
| Die Datenbank weiterleiten. | Nach Abschluss der Wiederherstellung wird die Zieldatenbank in den Status „Rollforward ausstehend“ versetzt. Konfigurieren Sie `LOGARCHMETH1` `LOGARCHMETH2` so, dass Db2 weiß, wo die Transaktionsprotokolldateien abgerufen werden sollen:<pre>db2 update db cfg for SAMPLE using LOGARCHMETH1 'DB2REMOTE://DB2AWSS3//SAMPLE_LOGS/'<br />db2 update db cfg for SAMPLE using LOGARCHMETH2 OFF</pre>Starten Sie den Datenbank-Rollforward:<pre>db2 ROLLFORWARD DATABASE sample to END OF LOGS</pre>Dieser Befehl verarbeitet alle Protokolldateien, die in den S3-Bucket übertragen wurden. Führen Sie ihn regelmäßig auf der Grundlage der Häufigkeit des `s3 sync` Befehls auf den lokalen Db2-Servern aus. Wenn der Befehl beispielsweise zu jeder Stunde `s3 sync` ausgeführt wird und die Synchronisierung aller Protokolldateien 10 Minuten dauert, legen Sie fest, dass der Befehl jeweils 10 Minuten nach jeder Stunde ausgeführt wird.  | DBA | 

### Bringen Sie Db2 auf Amazon während des EC2 Umstellungsfensters online
<a name="bring-db2-on-amazon-ec2-online-during-the-cutover-window"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bringen Sie die Zieldatenbank online. | Führen Sie während des Übernahmefensters einen der folgenden Schritte aus:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time.html)Nachdem das letzte Transaktionsprotokoll mit Amazon S3 synchronisiert wurde, führen Sie den `ROLLFORWARD` Befehl zum letzten Mal aus:<pre>db2 rollforward DB sample to END OF LOGS<br />db2 rollforward DB sample complete<br /><br />                                 Rollforward Status<br />....<br /> Rollforward status                     = not pending<br />....<br />DB20000I  The ROLLFORWARD command completed successfully.<br /><br />db2 activate db sample<br />DB20000I  The ACTIVATE DATABASE command completed successfully.</pre>Bringen Sie die Zieldatenbank online und verweisen Sie die Anwendungsverbindungen auf Db2 on Amazon EC2. | DBA | 

## Fehlerbehebung
<a name="migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Wenn mehrere Datenbanken denselben Instanznamen und Datenbanknamen auf unterschiedlichen Hosts (DEV, QA, PROD) haben, werden Backups und Logs möglicherweise in dasselbe Unterverzeichnis verschoben. | Verwenden Sie unterschiedliche S3-Buckets für DEV, QA und PROD und fügen Sie den Hostnamen als Unterverzeichnispräfix hinzu, um Verwirrung zu vermeiden. | 
| Wenn sich mehrere Backup-Images am selben Speicherort befinden, wird bei der Wiederherstellung die folgende Fehlermeldung angezeigt:`SQL2522N More than one backup file matches the time stamp value provided for the backed up database image.` | Fügen Sie im `restore` Befehl den Zeitstempel der Sicherung hinzu:`db2 restore db sample from DB2REMOTE://DB2AWSS3/logshipmig-db2/SAMPLE_backup taken at 20230628164042 replace existing` | 

## Zugehörige Ressourcen
<a name="migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time-resources"></a>
+ [DB2-Backup- und Wiederherstellungsvorgänge zwischen verschiedenen Betriebssystemen und Hardwareplattformen](https://www.ibm.com/docs/en/db2/11.5?topic=dbrs-backup-restore-operations-between-different-operating-systems-hardware-platforms)
+ [Richten Sie Db2 STORAGE ACCESS ALIAS und REMOTE ein DB2](https://www.ibm.com/docs/en/db2/11.5?topic=commands-catalog-storage-access)
+ [Db2-Befehl ROLLFORWARD](https://www.ibm.com/docs/en/db2/11.5?topic=commands-rollforward-database)
+ [Methode für die sekundäre Protokollarchivierung von Db2](https://www.ibm.com/docs/en/db2/11.5?topic=parameters-logarchmeth2-secondary-log-archive-method)

# Migrieren Sie Db2 for LUW zu Amazon EC2 mit hochverfügbarer Disaster Recovery
<a name="migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery"></a>

*Feng Cai, Aruna Gangireddy und Venkatesan Govindan, Amazon Web Services*

## Zusammenfassung
<a name="migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery-summary"></a>

Wenn Kunden ihren IBM Db2 LUW-Workload (Linux, UNIX und Windows) zu Amazon Web Services (AWS) migrieren, ist die Verwendung von Amazon Elastic Compute Cloud (Amazon EC2) mit dem Bring Your Own License (BYOL) -Modell der schnellste Weg. Die Migration großer Datenmengen von lokalem Db2 nach AWS kann jedoch eine Herausforderung sein, insbesondere wenn das Ausfallfenster kurz ist. Viele Kunden versuchen, das Ausfallfenster auf weniger als 30 Minuten festzulegen, sodass wenig Zeit für die Datenbank selbst bleibt.

Dieses Muster beschreibt, wie eine Db2-Migration mit einem kurzen Ausfallfenster mithilfe von Db2 High Availability Disaster Recovery (HADR) durchgeführt werden kann. Dieser Ansatz gilt für Db2-Datenbanken, die sich auf der Little-Endian-Linux-Plattform befinden und die Datenpartitionsfunktion (DPF) nicht verwenden.

## Voraussetzungen und Einschränkungen
<a name="migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Db2-Instance, die auf einer Amazon EC2 EC2-Instance ausgeführt wird und den lokalen Dateisystem-Layouts entspricht
+ Ein Amazon Simple Storage Service (Amazon S3) -Bucket, auf den die EC2-Instance zugreifen kann
+ Eine Richtlinie und Rolle für AWS Identity and Access Management (IAM) für programmatische Aufrufe an Amazon S3
+ Synchronisierte Zeitzone und Systemuhren auf Amazon EC2 und dem lokalen Server
+ Das lokale Netzwerk, das über AWS [ Site-to-SiteVPN oder AWS AWS](https://aws.amazon.com/vpn/) [Direct](https://aws.amazon.com/directconnect/) Connect verbunden ist
+ Kommunikation zwischen dem lokalen Server und Amazon EC2 über HADR-Ports

**Einschränkungen**
+ [Die lokale Db2-Instance und Amazon EC2 müssen sich auf derselben Plattformfamilie befinden.](https://www.ibm.com/docs/en/db2/11.1?topic=dbrs-backup-restore-operations-between-different-operating-systems-hardware-platforms)
+ HADR wird in einer partitionierten Datenbankumgebung nicht unterstützt.
+ HADR unterstützt die Verwendung von RAW I/O (direkter Festplattenzugriff) für Datenbank-Logdateien nicht.
+ HADR unterstützt keine unendliche Protokollierung.
+ `LOGINDEXBUILD`muss auf gesetzt sein`YES`, wodurch die Protokollnutzung für die Neuerstellung des Index erhöht wird.
+ Die lokale Db2-Arbeitslast muss protokolliert werden. `blocknonlogged=yes`In der Datenbankkonfiguration so eingestellt, dass alle nicht protokollierten Transaktionen blockiert werden.

**Versionen der Produkte**
+ Db2 für LUW Version 11.5.9 und höher

## Architektur
<a name="migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery-architecture"></a>

**Quelltechnologie-Stack**
+ Db2 auf Linux x86\$164****

**Zieltechnologie-Stack**
+ Amazon EC2
+ AWS Identity and Access Management (IAM)
+ Amazon S3
+  Site-to-SiteAWS-VPN

**Zielarchitektur**

In der folgenden Abbildung wird Db2 on Premises `db2-server1` als primäres System ausgeführt. Es hat zwei HADR-Standby-Ziele. Ein Standby-Ziel befindet sich vor Ort und ist optional. Das andere Standby-Ziel,`db2-ec2`, befindet sich auf Amazon EC2. Nachdem die Datenbank auf AWS umgestellt wurde, `db2-ec2` wird sie zur primären Datenbank.

![\[Workflow für die Migration eines lokalen Db2 mit einem kurzen Ausfallfenster mithilfe von Db2 HADR.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/2db43e4b-f0ea-4a92-96da-4cafb7d3368b/images/5295420e-3cd8-4127-9a18-ade971c36339.png)


1. Protokolle werden von der lokalen Primärdatenbank zur lokalen Standby-Datenbank gestreamt.

1. Mithilfe von Db2 HADR werden Protokolle von der primären lokalen Datenbank über Site-to-Site VPN zu Db2 auf Amazon EC2 gestreamt.

1. DB2-Backup- und Archivierungsprotokolle werden von der primären lokalen Datenbank an den S3-Bucket auf AWS gesendet.

## Tools
<a name="migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery-tools"></a>

**AWS-Services**
+ [AWS Command Line Interface (AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-welcome.html) ist ein Open-Source-Tool, mit dem Sie über Befehle in Ihrer Befehlszeilen-Shell mit AWS-Services interagieren können.
+ [AWS Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html) verbindet Ihr internes Netzwerk über ein Standard-Ethernet-Glasfaserkabel mit einem Direct Connect-Standort. Mit dieser Verbindung können Sie virtuelle Schnittstellen direkt zu öffentlichen AWS-Services erstellen und dabei Internetdienstanbieter in Ihrem Netzwerkpfad umgehen.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/) bietet skalierbare Rechenkapazität in der AWS-Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.
+ Mit [AWS Identity and Access Management (IAM)](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) können Sie den Zugriff auf Ihre AWS-Ressourcen sicher verwalten, indem Sie kontrollieren, wer authentifiziert und autorisiert ist, diese zu verwenden.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.
+ Mit [AWS Site-to-Site VPN](https://docs.aws.amazon.com/vpn/latest/s2svpn/VPC_VPN.html) können Sie den Datenverkehr zwischen Instances, die Sie auf AWS starten, und Ihrem eigenen Remote-Netzwerk weiterleiten.

**Andere Tools**
+ [db2cli](https://www.ibm.com/docs/en/db2/11.5?topic=commands-db2cli-db2-interactive-cli) ist der interaktive Db2-CLI-Befehl.

## Best Practices
<a name="migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery-best-practices"></a>
+ Verwenden Sie in der Zieldatenbank [Gateway-Endpunkte für Amazon S3](https://docs.aws.amazon.com/vpc/latest/privatelink/vpc-endpoints-s3.html), um auf das Datenbank-Backup-Image und die Protokolldateien in Amazon S3 zuzugreifen.
+ Verwenden Sie in der Quelldatenbank [AWS PrivateLink für Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/privatelink-interface-endpoints.html), um das Datenbank-Backup-Image und die Protokolldateien an Amazon S3 zu senden.

## Epen
<a name="migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery-epics"></a>

### Festlegen von Umgebungsvariablen
<a name="set-environment-variables"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Legen Sie Umgebungsvariablen fest. | Dieses Muster verwendet die folgenden Namen und Ports:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery.html)Sie können sie an Ihre Umgebung anpassen. | DBA | 

### Konfigurieren Sie den lokalen Db2-Server
<a name="configure-the-on-premises-db2-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie die AWS-CLI ein. | Führen Sie die folgenden Befehle aus, um die neueste Version von AWS CLI herunterzuladen und zu installieren:<pre>$ curl "https://awscli.amazonaws.com/awscli-exe-linux-x86_64.zip" -o "awscliv2.zip"<br />unzip awscliv2.zip<br />sudo ./aws/install</pre> | Linux-Administrator | 
| Richten Sie ein lokales Ziel für Db2-Archivprotokolle ein. | Bedingungen wie umfangreiche Batch-Aktualisierungsaufträge und Netzwerkverlangsamungen können dazu führen, dass der HADR-Standby-Server verzögert wird. Um catch, benötigt der Standby-Server die Transaktionsprotokolle des Primärservers. Die Reihenfolge der Stellen, an denen Logs angefordert werden, ist wie folgt:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery.html)In diesem Setup `/db2logs` wird von `LOGARCHMETH2` auf der Quelle als Staging-Bereich festgelegt. Die archivierten Protokolle in diesem Verzeichnis werden mit Amazon S3 synchronisiert und von Db2 auf Amazon EC2 abgerufen. Das Muster verwendet`LOGARCHMETH2`, weil `LOGARCHMETH1` es möglicherweise für die Verwendung eines Drittanbietertools konfiguriert wurde, auf das der AWS-CLI-Befehl nicht zugreifen kann:<pre>db2 connect to sample<br />db2 update db cfg for SAMPLE using LOGARCHMETH2 disk:/db2logs</pre> | DBA | 
| Führen Sie eine Online-Datenbanksicherung durch. | Führen Sie eine Online-Datenbanksicherung aus und speichern Sie sie im lokalen Backup-Dateisystem:<pre>db2 backup db sample online to /backup </pre> | DBA | 

### Richten Sie den S3-Bucket und die IAM-Richtlinie ein
<a name="set-up-the-s3-bucket-and-iam-policy"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen S3-Bucket. | Erstellen Sie einen S3-Bucket für den lokalen Server, an den die Backup-DB2-Images und Protokolldateien auf AWS gesendet werden sollen. Auf den Bucket wird von Amazon EC2 zugegriffen:<pre>aws s3api create-bucket --bucket hadrmig-db2 --region us-east-1 </pre> | AWS-Administrator | 
| Erstellen Sie eine IAM-Richtlinie. | Die `db2bucket.json` Datei enthält die IAM-Richtlinie für den Zugriff auf den S3-Bucket:<pre>{<br />    "Version": "2012-10-17",		 	 	 <br />    "Statement": [<br />        {<br />            "Effect": "Allow",<br />            "Action": [<br />                "kms:GenerateDataKey",<br />                "kms:Decrypt",<br />                "s3:PutObject",<br />                "s3:GetObject",<br />                "s3:AbortMultipartUpload",<br />                "s3:ListBucket",<br />                "s3:DeleteObject",<br />                "s3:GetObjectVersion",<br />                "s3:ListMultipartUploadParts"<br />            ],<br />            "Resource": [<br />                "arn:aws:s3:::hadrmig-db2/*",<br />                "arn:aws:s3:::hadrmig-db2"<br />            ]<br />        }<br />    ]<br />}</pre>Verwenden Sie den folgenden AWS-CLI-Befehl, um die Richtlinie zu erstellen:<pre>aws iam create-policy \<br />      --policy-name db2s3hapolicy \<br />      --policy-document file://db2bucket.json </pre>Die JSON-Ausgabe zeigt den Amazon-Ressourcennamen (ARN) für die Richtlinie, wobei `aws_account_id` es sich um Ihre Konto-ID handelt:<pre>"Arn": "arn:aws:iam::aws_account_id:policy/db2s3hapolicy"</pre> | AWS-Administrator, AWS-Systemadministrator | 
| Fügen Sie die IAM-Richtlinie an die IAM-Rolle an. | Normalerweise würde der EC2-Instance, auf der Db2 läuft, vom Systemadministrator eine IAM-Rolle zugewiesen. Wenn keine IAM-Rolle zugewiesen ist, können Sie in der Amazon EC2 EC2-Konsole die Option **IAM-Rolle ändern** auswählen.Fügen Sie die IAM-Richtlinie der IAM-Rolle hinzu, die der EC2-Instance zugeordnet ist. Nachdem die Richtlinie angehängt wurde, kann die EC2-Instance auf den S3-Bucket zugreifen:<pre>aws iam attach-role-policy --policy-arn "arn:aws:iam::aws_account_id:policy/db2s3hapolicy" --role-name db2s3harole   </pre> |  | 

### Senden Sie das Backup-Image und die Protokolldateien der Quelldatenbank an Amazon S3
<a name="send-the-source-database-backup-image-and-log-files-to-amazon-s3"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie AWS CLI auf dem lokalen Db2-Server. | Konfigurieren Sie die AWS-CLI mit dem `Access Key ID` und`Secret Access Key`, das Sie zuvor generiert haben:<pre>$ aws configure <br />AWS Access Key ID [None]: *************<br />AWS Secret Access Key [None]: ***************************<br />Default region name [None]: us-east-1<br />Default output format [None]: json</pre> | AWS-Administrator, AWS-Systemadministrator | 
| Senden Sie das Backup-Image an Amazon S3. | Zuvor wurde ein Online-Datenbank-Backup im `/backup` lokalen Verzeichnis gespeichert. Führen Sie den folgenden Befehl aus, um dieses Backup-Image an den S3-Bucket zu senden:<pre>aws s3 sync /backup s3://hadrmig-db2/SAMPLE_backup</pre> | AWS-Administrator, AWS-Systemadministrator | 
| Senden Sie die Db2-Archivprotokolle an Amazon S3. | Synchronisieren Sie die lokalen Db2-Archivprotokolle mit dem Amazon S3 S3-Bucket, auf den die Ziel-Db2-Instance auf Amazon EC2 zugreifen kann:<pre>aws s3 sync /db2logs s3://hadrmig-db2/SAMPLE_LOGS</pre>Führen Sie diesen Befehl regelmäßig mithilfe von Cron oder anderen Planungstools aus. Die Häufigkeit hängt davon ab, wie oft die Quelldatenbank Transaktionsprotokolldateien archiviert. |  | 

### Connect Db2 auf Amazon EC2 mit Amazon S3 und starten Sie die erste Datenbanksynchronisierung
<a name="connect-db2-on-amazon-ec2-to-amazon-s3-and-start-the-initial-database-sync"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen PKCS12 Keystore. | Db2 verwendet einen PKCS-Verschlüsselungs-Keystore (Public-Key Cryptography Standards), um den AWS-Zugriffsschlüssel zu schützen. Erstellen Sie einen Keystore und konfigurieren Sie den Quell-Db2 so, dass er ihn verwendet:<pre>gsk8capicmd_64 -keydb -create -db "/home/db2inst1/.keystore/db2s3.p12" -pw "<password>" -type pkcs12 -stash <br /> <br />db2 "update dbm cfg using keystore_location /home/db2inst1/.keystore/db2s3.p12 keystore_type pkcs12"</pre> | DBA | 
| Erstellen Sie den Alias für den Db2-Speicherzugriff. | Db2 verwendet einen Speicherzugriffsalias, um mit den `RESTORE DATABASE` Befehlen`INGEST`, `LOAD``BACKUP DATABASE`, oder direkt auf Amazon S3 zuzugreifen. Weil Sie der EC2-Instance eine IAM-Rolle zugewiesen haben `USER` und nicht erforderlich `PASSWORD` sind:`db2 "catalog storage access alias <alias_name> vendor S3 server <S3 endpoint> container '<bucket_name>'"`Ihr Skript könnte beispielsweise wie folgt aussehen: `db2 "catalog storage access alias DB2AWSS3 vendor S3 server s3.us-east-1.amazonaws.com container 'hadrmig-db2'" ` | DBA | 
| Stellen Sie den Bereitstellungsbereich ein. | Wir empfehlen`DB2_ENABLE_COS_SDK=ON`,`DB2_OBJECT_STORAGE_SETTINGS=EnableStreamingRestore`, und den Link zur `awssdk` Bibliothek zu verwenden, um den Amazon S3 S3-Staging-Bereich für Datenbank-Backups und -Wiederherstellungen zu umgehen:<pre>#By root:<br />cp -rp /home/db2inst1/sqllib/lib64/awssdk/RHEL/7.6/* /home/db2inst1/sqllib/lib64/<br /><br />#By db2 instance owner:<br />db2set DB2_OBJECT_STORAGE_LOCAL_STAGING_PATH=/db2stage<br />db2set DB2_ENABLE_COS_SDK=ON<br />db2set DB2_OBJECT_STORAGE_LOCAL_STAGING_PATH=/db2stage<br />db2stop<br />db2start</pre> | DBA | 
| Stellen Sie die Datenbank aus dem Backup-Image wieder her. | Stellen Sie die Zieldatenbank auf Amazon EC2 aus dem Backup-Image im S3-Bucket wieder her:<pre>db2 create db sample on /data1<br />db2 restore db sample from DB2REMOTE://DB2AWSS3/hadrmig-db2/SAMPLE_backup replace existing</pre> | DBA | 

### Richten Sie HADR ohne HADR vor Ort ein
<a name="set-up-hadr-with-no-hadr-on-premises"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie den lokalen Db2-Server als primären Server. | Aktualisieren Sie die Datenbankkonfigurationseinstellungen für HADR on `db2-server1` (die lokale Quelle) als Primärserver. Stellen Sie `HADR_SYNCMODE` den `SUPERASYNC` Modus ein, der die kürzeste Transaktionsantwortzeit hat:`db2 update db cfg for sample using HADR_LOCAL_HOST db2-server1 HADR_LOCAL_SVC 50010 HADR_REMOTE_HOST db2-ec2 HADR_REMOTE_SVC 50012 HADR_REMOTE_INST db2inst1 HADR_SYNCMODE SUPERASYNC DB20000I The UPDATE DATABASE CONFIGURATION command completed successfully`Es wird mit einigen Netzwerkverzögerungen zwischen dem lokalen Rechenzentrum und AWS gerechnet. (Sie können je nach Netzwerkzuverlässigkeit einen anderen `HADR_SYNCMODE` Wert festlegen. Weitere Informationen finden Sie im Abschnitt [Verwandte Ressourcen](#migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery-resources).) | DBA | 
| Ändern Sie das Ziel des Zieldatenbank-Logarchivs. | Ändern Sie das Zielziel des Datenbank-Logarchivs so, dass es der Amazon EC2 EC2-Umgebung entspricht:<pre>db2 update db cfg for SAMPLE using LOGARCHMETH1 'DB2REMOTE://DB2AWSS3//SAMPLE_LOGS/' LOGARCHMETH2 OFF<br />DB20000I  The UPDATE DATABASE CONFIGURATION command completed successfully</pre> | DBA | 
| Konfigurieren Sie HADR für Db2 auf dem Amazon EC2-Server. | Aktualisieren Sie die Datenbankkonfiguration für HADR im Standby-Modus: `db2-ec2``db2 update db cfg for sample using HADR_LOCAL_HOST db2-ec2 HADR_LOCAL_SVC 50012 HADR_REMOTE_HOST db2-server1 HADR_REMOTE_SVC 50010 HADR_REMOTE_INST db2inst1 HADR_SYNCMODE SUPERASYNC DB20000I The UPDATE DATABASE CONFIGURATION command completed successfully` | DBA | 
| Überprüfen Sie das HADR-Setup. | Überprüfen Sie die HADR-Parameter auf den Quell- und Ziel-DB2-Servern.Führen Sie den folgenden Befehl aus, um zu überprüfen`db2-server1`, ob das Setup aktiviert ist:<pre>db2 get db cfg for sample|grep HADR<br /> HADR database role                                      = PRIMARY<br /> HADR local host name                  (HADR_LOCAL_HOST) = db2-server1<br /> HADR local service name                (HADR_LOCAL_SVC) = 50010<br /> HADR remote host name                (HADR_REMOTE_HOST) = db2-ec2<br /> HADR remote service name              (HADR_REMOTE_SVC) = 50012<br /> HADR instance name of remote server  (HADR_REMOTE_INST) = db2inst1<br /> HADR timeout value                       (HADR_TIMEOUT) = 120<br /> HADR target list                     (HADR_TARGET_LIST) = <br /> HADR log write synchronization mode     (HADR_SYNCMODE) = NEARSYNC<br /> HADR spool log data limit (4KB)      (HADR_SPOOL_LIMIT) = AUTOMATIC(52000)<br /> HADR log replay delay (seconds)     (HADR_REPLAY_DELAY) = 0<br /> HADR peer window duration (seconds)  (HADR_PEER_WINDOW) = 0<br /> HADR SSL certificate label             (HADR_SSL_LABEL) =<br /> HADR SSL Hostname Validation        (HADR_SSL_HOST_VAL) = OFF</pre> Führen Sie den folgenden Befehl aus, um zu überprüfen`db2-ec2`, ob das Setup aktiviert ist:<pre>db2 get db cfg for sample|grep HADR<br /> HADR database role                                      = STANDBY<br /> HADR local host name                  (HADR_LOCAL_HOST) = db2-ec2<br /> HADR local service name                (HADR_LOCAL_SVC) = 50012<br /> HADR remote host name                (HADR_REMOTE_HOST) = db2-server1<br /> HADR remote service name              (HADR_REMOTE_SVC) = 50010<br /> HADR instance name of remote server  (HADR_REMOTE_INST) = db2inst1<br /> HADR timeout value                       (HADR_TIMEOUT) = 120<br /> HADR target list                     (HADR_TARGET_LIST) = <br /> HADR log write synchronization mode     (HADR_SYNCMODE) = SUPERASYNC<br /> HADR spool log data limit (4KB)      (HADR_SPOOL_LIMIT) = AUTOMATIC(52000)<br /> HADR log replay delay (seconds)     (HADR_REPLAY_DELAY) = 0<br /> HADR peer window duration (seconds)  (HADR_PEER_WINDOW) = 0<br /> HADR SSL certificate label             (HADR_SSL_LABEL) =<br /> HADR SSL Hostname Validation        (HADR_SSL_HOST_VAL) = OFF</pre>Die `HADR_REMOTE_SVC` Parameter`HADR_LOCAL_HOST`, `HADR_LOCAL_SVC``HADR_REMOTE_HOST`, und geben das eine primäre und ein Standby-HARD-Setup an. | DBA | 
| Starten Sie die Db2 HADR-Instanz. | Starten Sie zuerst die Db2 HADR-Instanz auf dem Standby-Server: `db2-ec2`<pre>db2 start hadr on db sample as standby<br />DB20000I  The START HADR ON DATABASE command completed successfully.</pre>Starten Sie Db2 HADR auf dem Primärserver (Quellserver): `db2-server1`<pre>db2 start hadr on db sample as primary<br />DB20000I  The START HADR ON DATABASE command completed successfully.</pre>Die HADR-Verbindung zwischen Db2 vor Ort und Amazon EC2 wurde jetzt erfolgreich hergestellt. Der Db2-Primärserver `db2-server1` beginnt, Transaktionsprotokolleinträge in Echtzeit zu `db2-ec2` streamen. | DBA | 

### Richten Sie HADR ein, wenn HADR lokal vorhanden ist
<a name="set-up-hadr-when-hadr-exists-on-premises"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fügen Sie Db2 auf Amazon EC2 als Auxiliary Standby hinzu. | Wenn HADR auf der lokalen Db2-Instance ausgeführt wird, können Sie Db2 auf Amazon EC2 als Auxiliary Standby hinzufügen, `HADR_TARGET_LIST` indem Sie die folgenden Befehle auf ausführen: `db2-ec2``db2 update db cfg for sample using HADR_LOCAL_HOST db2-ec2 HADR_LOCAL_SVC 50012 HADR_REMOTE_HOST db2-server1 HADR_REMOTE_SVC 50010 HADR_REMOTE_INST db2inst1 HADR_SYNCMODE SUPERASYNC DB20000I The UPDATE DATABASE CONFIGURATION command completed successfully. db2 update db cfg for sample using HADR_TARGET_LIST "db2-server1:50010\|db2-server2:50011" DB20000I The UPDATE DATABASE CONFIGURATION command completed successfully.` | DBA | 
| Fügen Sie die zusätzlichen Standby-Informationen zu den lokalen Servern hinzu. | Update `HADR_TARGET_LIST` auf den beiden lokalen Servern (Primär- und Standby-Server).Führen Sie auf `db2-server1` den folgenden Code aus:`db2 update db cfg for sample using HADR_TARGET_LIST "db2-server2:50011\|db2-ec2:50012" DB20000I The UPDATE DATABASE CONFIGURATION command completed successfully. SQL1363W One or more of the parameters submitted for immediate modification were not changed dynamically. For these configuration parameters, the database must be shutdown and reactivated before the configuration parameter changes become effective.`Führen Sie `db2-server2` unter den folgenden Code aus:`db2 update db cfg for sample using HADR_TARGET_LIST "db2-server1:50010\|db2-ec2:50012" DB20000I The UPDATE DATABASE CONFIGURATION command completed successfully. SQL1363W One or more of the parameters submitted for immediate modification were not changed dynamically. For these configuration parameters, the database must be shutdown and reactivated before the configuration parameter changes become effective.` | DBA | 
| Überprüfen Sie das HADR-Setup. | Überprüfen Sie die HADR-Parameter auf den Quell- und Ziel-DB2-Servern.Führen Sie auf `db2-server1` den folgenden Code aus:<pre>db2 get db cfg for sample|grep HADR<br /> HADR database role                                      = PRIMARY<br /> HADR local host name                  (HADR_LOCAL_HOST) = db2-server1<br /> HADR local service name                (HADR_LOCAL_SVC) = 50010<br /> HADR remote host name                (HADR_REMOTE_HOST) = db2-server2<br /> HADR remote service name              (HADR_REMOTE_SVC) = 50011<br /> HADR instance name of remote server  (HADR_REMOTE_INST) = db2inst1<br /> HADR timeout value                       (HADR_TIMEOUT) = 120<br /> HADR target list                     (HADR_TARGET_LIST) = db2-server2:50011|db2-ec2:50012<br /> HADR log write synchronization mode     (HADR_SYNCMODE) = NEARSYNC<br /> HADR spool log data limit (4KB)      (HADR_SPOOL_LIMIT) = AUTOMATIC(52000)<br /> HADR log replay delay (seconds)     (HADR_REPLAY_DELAY) = 0<br /> HADR peer window duration (seconds)  (HADR_PEER_WINDOW) = 0<br /> HADR SSL certificate label             (HADR_SSL_LABEL) =<br /> HADR SSL Hostname Validation        (HADR_SSL_HOST_VAL) = OFF</pre>Führen Sie `db2-server2` unter den folgenden Code aus:<pre>db2 get db cfg for sample|grep HADR<br /> HADR database role                                      = STANDBY<br /> HADR local host name                  (HADR_LOCAL_HOST) = db2-server2<br /> HADR local service name                (HADR_LOCAL_SVC) = 50011<br /> HADR remote host name                (HADR_REMOTE_HOST) = db2-server1<br /> HADR remote service name              (HADR_REMOTE_SVC) = 50010<br /> HADR instance name of remote server  (HADR_REMOTE_INST) = db2inst1<br /> HADR timeout value                       (HADR_TIMEOUT) = 120<br /> HADR target list                     (HADR_TARGET_LIST) = db2-server1:50010|db2-ec2:50012<br /> HADR log write synchronization mode     (HADR_SYNCMODE) = NEARSYNC<br /> HADR spool log data limit (4KB)      (HADR_SPOOL_LIMIT) = AUTOMATIC(52000)<br /> HADR log replay delay (seconds)     (HADR_REPLAY_DELAY) = 0<br /> HADR peer window duration (seconds)  (HADR_PEER_WINDOW) = 0<br /> HADR SSL certificate label             (HADR_SSL_LABEL) =<br /> HADR SSL Hostname Validation        (HADR_SSL_HOST_VAL) = OFF</pre>Führen Sie `db2-ec2` unter den folgenden Code aus:<pre>db2 get db cfg for sample|grep HADR<br /> HADR database role                                      = STANDBY<br /> HADR local host name                  (HADR_LOCAL_HOST) = db2-ec2<br /> HADR local service name                (HADR_LOCAL_SVC) = 50012<br /> HADR remote host name                (HADR_REMOTE_HOST) = db2-server1<br /> HADR remote service name              (HADR_REMOTE_SVC) = 50010<br /> HADR instance name of remote server  (HADR_REMOTE_INST) = db2inst1<br /> HADR timeout value                       (HADR_TIMEOUT) = 120<br /> HADR target list                     (HADR_TARGET_LIST) = db2-server1:50010|db2-server2:50011<br /> HADR log write synchronization mode     (HADR_SYNCMODE) = SUPERASYNC<br /> HADR spool log data limit (4KB)      (HADR_SPOOL_LIMIT) = AUTOMATIC(52000)<br /> HADR log replay delay (seconds)     (HADR_REPLAY_DELAY) = 0<br /> HADR peer window duration (seconds)  (HADR_PEER_WINDOW) = 0<br /> HADR SSL certificate label             (HADR_SSL_LABEL) =<br /> HADR SSL Hostname Validation        (HADR_SSL_HOST_VAL) = OFF</pre>Die `HADR_TARGET_LIST` Parameter`HADR_LOCAL_HOST`, `HADR_LOCAL_SVC``HADR_REMOTE_HOST`, und geben an`HADR_REMOTE_SVC`, dass ein primäres und zwei Standby-HADR-Setup vorhanden sind. |  | 
| Stoppen und starten Sie Db2 HADR. | `HADR_TARGET_LIST`ist jetzt auf allen drei Servern eingerichtet. Jeder Db2-Server kennt die anderen beiden. Beenden Sie HADR (kurzer Ausfall) und starten Sie es erneut, um die Vorteile der neuen Konfiguration zu nutzen.Führen Sie `db2-server1` unter die folgenden Befehle aus:<pre>db2 stop hadr on db sample<br />db2 deactivate db sample<br />db2 activate db sample</pre>Führen Sie bei `db2-server2` aktivierter Option die folgenden Befehle aus:<pre>db2 deactivate db sample<br />db2 start hadr on db sample as standby<br />SQL1766W  The command completed successfully</pre>Führen Sie bei `db2-ec2` aktivierter Option die folgenden Befehle aus:<pre>db2 start hadr on db sample as standby<br />SQL1766W  The command completed successfully</pre>Führen Sie bei `db2-server1` aktivierter Option die folgenden Befehle aus:<pre>db2 start hadr on db sample as primary<br />SQL1766W  The command completed successfully</pre>Die HADR-Verbindung zwischen Db2 vor Ort und Amazon EC2 wurde jetzt erfolgreich hergestellt. Der Db2-Primärserver `db2-server1` beginnt mit dem Streaming von Transaktionsprotokolldatensätzen an beide Server `db2-server2` und `db2-ec2` zwar in Echtzeit.  | DBA | 

### Machen Sie Db2 auf Amazon EC2 während des Umstellungsfensters als primäres Objekt
<a name="make-db2-on-amazon-ec2-as-primary-during-the-cutover-window"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie sicher, dass es auf dem Standby-Server keine HADR-Verzögerung gibt. | Überprüfen Sie den HADR-Status vom Primärserver aus. `db2-server1` Seien Sie nicht beunruhigt, wenn der `REMOTE_CATCHUP` Status `HADR_STATE` aktiviert ist, was normal ist, wenn er auf eingestellt `HADR_SYNCMODE` ist. `SUPERASYNC` Die `PRIMARY_LOG_TIME` und `STANDBY_REPLAY_LOG_TIME` zeigen, dass sie synchron sind:<pre>db2pd -hadr -db sample<br />                            HADR_ROLE = PRIMARY<br />                          REPLAY_TYPE = PHYSICAL<br />                        HADR_SYNCMODE = SUPERASYNC<br />                           STANDBY_ID = 2<br />                        LOG_STREAM_ID = 0<br />                           HADR_STATE = REMOTE_CATCHUP<br />.....<br />                     PRIMARY_LOG_TIME = 10/26/2022 02:11:32.000000 (1666750292)<br />                     STANDBY_LOG_TIME = 10/26/2022 02:11:32.000000 (1666750292)<br />              STANDBY_REPLAY_LOG_TIME = 10/26/2022 02:11:32.000000 (1666750292)</pre> | DBA | 
| Führen Sie HADR Takeover aus. | Um die Migration abzuschließen, erstellen Sie `db2-ec2` die Primärdatenbank, indem Sie den Befehl HADR Takeover ausführen. Verwenden Sie den Befehl`db2pd`, um den `HADR_ROLE` Wert zu überprüfen:<pre>db2 TAKEOVER HADR ON DATABASE sample<br />DB20000I  The TAKEOVER HADR ON DATABASE command completed successfully.<br /><br />db2pd -hadr -db sample<br />Database Member 0 -- Database SAMPLE -- Active -- Up 0 days 00:03:25 -- Date 2022-10-26-02.46.45.048988<br /><br />                            HADR_ROLE = PRIMARY<br />                          REPLAY_TYPE = PHYSICAL</pre>Um die Migration zu AWS abzuschließen, verweisen Sie die Anwendungsverbindungen auf Db2 in Amazon EC2. |  | 

## Fehlerbehebung
<a name="migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Wenn Sie NAT aus Firewall- und Sicherheitsgründen verwenden, kann der Host zwei IP-Adressen haben (eine interne und eine externe), was dazu führen kann, dass die HADR-IP-Adressüberprüfung fehlschlägt. Der `START HADR ON DATABASE` Befehl gibt die folgende Meldung zurück:`HADR_LOCAL_HOST:HADR_LOCAL_SVC (-xx-xx-xx-xx.:50011 (xx.xx.xx.xx:50011)) on remote database is different from HADR_REMOTE_HOST:HADR_REMOTE_SVC (xx-xx-xx-xx.:50011 (x.x.x.x:50011)) on local database.` | Um [HADR in einer NAT-Umgebung zu unterstützen,](https://www.ibm.com/docs/en/db2/11.5?topic=support-hadr-nat) können Sie die sowohl `HADR_LOCAL_HOST` mit der internen als auch mit der externen Adresse konfigurieren. Wenn der Db2-Server beispielsweise den internen Namen `host1` und den externen Namen hat`host1E`, `HADR_LOCAL_HOST` kann das sein. `HADR_LOCAL_HOST: "host1 \| host1E"` | 

## Zugehörige Ressourcen
<a name="migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery-resources"></a>
+ [Sicherungs- und Wiederherstellungsvorgänge von DB2 zwischen verschiedenen Betriebssystemen und Hardwareplattformen](https://www.ibm.com/docs/en/db2/11.5?topic=dbrs-backup-restore-operations-between-different-operating-systems-hardware-platforms)
+ [Richten Sie Db2 STORAGE ACCESS ALIAS und REMOTE ein DB2](https://www.ibm.com/docs/en/db2/11.5?topic=commands-catalog-storage-access)
+ [Db2-Disaster Recovery mit hoher Verfügbarkeit](https://www.ibm.com/docs/en/db2/11.5?topic=server-high-availability-disaster-recovery-hadr)
+ [hadr\$1syncmode — HADR-Synchronisationsmodus für Protokollschreibvorgänge im Peer-State-Konfigurationsparameter](https://www.ibm.com/docs/en/db2/11.5?topic=dcp-hadr-syncmode-hadr-synchronization-mode-log-writes-in-peer-state)

# Migrieren Sie IIS-gehostete Anwendungen mithilfe EC2 von appcmd.exe zu Amazon
<a name="migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd"></a>

*Deepak Kumar, Amazon Web Services*

## Zusammenfassung
<a name="migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd-summary"></a>

Wenn Sie von Internet Information Services (IIS) gehostete Anwendungen zu Amazon Elastic Compute Cloud (Amazon EC2) -Instances migrieren, müssen Sie mehrere Authentifizierungsherausforderungen bewältigen. Zu diesen Herausforderungen gehören die erneute Eingabe von Domänenanmeldedaten für Anwendungspool-Identitäten und die potenzielle Neugenerierung von Computerschlüsseln, damit die Website ordnungsgemäß funktioniert. Sie können AWS Directory Service es verwenden, um Vertrauensbeziehungen mit Ihrem lokalen Active Directory aufzubauen oder ein neues verwaltetes Active Directory in zu erstellen. AWS Dieses Muster beschreibt einen sauberen Migrationsansatz, der die Sicherungs- und Wiederherstellungsfunktionen von IIS auf EC2 Amazon-Instances verwendet. Bei diesem Ansatz wird appcmd.exe verwendet, um IIS auf den EC2 Ziel-Instances zu deinstallieren und neu zu installieren, was eine erfolgreiche Migration von IIS-gehosteten Websites, Anwendungspool-Identitäten und Computerschlüsseln ermöglicht. 

## Voraussetzungen und Einschränkungen
<a name="migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd-prereqs"></a>

**Voraussetzungen**
+ Ein aktiver AWS-Konto für den Zielserver.
+ Ein funktionierender IIS-Quellserver, auf dem Websites gehostet werden.
+ Verständnis der IIS-Arbeitsprinzipien wie Verwaltung und Konfiguration.
+ Systemadministratorzugriff sowohl auf dem Quell- als auch auf dem Zielserver.
+ Die Migration des IIS-Quellservers auf den Zielserver wurde abgeschlossen AWS-Konto. Sie können Migrationstools wie AWS Application Migration Service einen auf Amazon Machine Image (AMI) -Snapshots basierenden Ansatz oder andere Migrationstools verwenden.

**Einschränkungen**
+ Einige AWS-Services sind nicht in allen verfügbar. AWS-Regionen Informationen zur Verfügbarkeit in den einzelnen Regionen finden Sie unter [AWS Dienste nach Regionen](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/). Informationen zu bestimmten Endpunkten finden Sie unter [Dienstendpunkte und Kontingente](https://docs.aws.amazon.com/general/latest/gr/aws-service-information.html). Wählen Sie dort den Link für den Dienst aus.

**Produktversionen**
+ IIS 8.5 oder IIS 10.0

## Architektur
<a name="migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd-architecture"></a>

**Quelltechnologie-Stack**
+ Windows Server mit installiertem IIS 8.5 oder IIS 10.0

**Zieltechnologie-Stack**
+ Windows Server mit installiertem IIS 8.5 oder IIS 10.0
+ Application Migration Service

**Zielarchitektur**

Das folgende Diagramm zeigt den Workflow und die Architekturkomponenten für dieses Muster.

![\[Workflow zur Migration von IIS-gehosteten Anwendungen zu Amazon. EC2\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/2f9f7757-b2bc-4077-b51a-700de521424c/images/36aa9b7a-d0aa-4fa4-be47-9fee43b53c22.png)


Die Lösung umfasst die folgenden Schritte:

1. [Installieren](https://docs.aws.amazon.com/mgn/latest/ug/agent-installation.html) und konfigurieren Sie den AWS Replication Agent auf dem IIS-Quellserver in Ihrem Unternehmensrechenzentrum. Dieser Agent initiiert den Replikationsprozess und verwaltet die Datenübertragung zu AWS.

1. Der AWS Replication Agent stellt eine [sichere Verbindung](https://docs.aws.amazon.com/mgn/latest/ug/Agent-Related-FAQ.html#How-Communication-Secured) zum Application Migration Service her und beginnt mit der Replikation der Quellserverdaten, einschließlich IIS-Konfigurationen, Websites und Anwendungsdateien.

1. Der Application Migration Service startet EC2 Instanzen im Anwendungssubnetz mit den replizierten Daten. Die EC2 Ziel-Instance führt IIS aus und enthält die migrierten Anwendungen mit ihren zugehörigen Amazon Elastic Block Store (Amazon EBS) -Volumes. Nach der ersten Replikation synchronisiert der Application Migration Service die Änderungen weiter, bis Sie [bereit sind, auf die neue Umgebung](https://docs.aws.amazon.com/mgn/latest/ug/migration-dashboard.html#ready-for-cutover1) umzusteigen.

## Tools
<a name="migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd-tools"></a>

**AWS-Services**
+ [AWS Application Migration Service](https://docs.aws.amazon.com/mgn/latest/ug/what-is-application-migration-service.html)unterstützt Sie beim Rehosten (*Lift and Shift*) von Anwendungen AWS Cloud ohne Änderungen und mit minimalen Ausfallzeiten.
+ [Amazon Elastic Block Store (Amazon EBS)](https://docs.aws.amazon.com/ebs/latest/userguide/what-is-ebs.html) bietet Speichervolumen auf Blockebene zur Verwendung mit Amazon-Instances. EC2 
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/concepts.html) bietet skalierbare Rechenkapazität in der AWS Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.

**Andere Tools**
+ [Internet Information Services (IIS)](https://www.iis.net/overview) für Windows Server ist ein Webserver mit einer skalierbaren und offenen Architektur zum Hosten aller Inhalte im Internet. IIS bietet eine Reihe von Verwaltungstools, darunter Verwaltungs- und Befehlszeilentools (z. B. appcmd.exe), verwalteten Code und Skripting APIs sowie PowerShell Windows-Unterstützung.

## Epen
<a name="migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd-epics"></a>

### Erstellen Sie vor der Migration eine Sicherungskopie von IIS an der Quelle
<a name="back-up-iis-at-source-prior-to-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie Backups der von IIS gehosteten Websites, des Konfigurationsschlüssels und `WAS` des Schlüssels. | Verwenden Sie appcmd.exe auf dem Quellserver, um Backups für IIS-gehostete Websites, den Konfigurationsschlüssel (`iisConfigurationKey`) und den `WAS` Schlüssel (`iisWasKey`) zu erstellen. Gehen Sie dazu wie folgt vor:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd.html)Gehen Sie wie folgt vor, um den `WAS` Konfigurationsschlüssel und den Schlüssel zu exportieren:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd.html) | IIS-Administrator | 

### Deinstallieren Sie IIS und installieren Sie es erneut auf dem Zielserver
<a name="uninstall-and-reinstall-iis-on-the-target-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Deinstallieren Sie IIS auf dem Zielserver. | Gehen Sie wie folgt vor, um IIS auf dem Zielserver zu deinstallieren: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd.html) | IIS-Administrator | 
| Installieren Sie IIS auf dem Zielserver. | Gehen Sie wie folgt vor, um IIS auf dem Zielserver zu installieren: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd.html) | IIS-Administrator | 

### Stellen Sie IIS-Websites und -Konfigurationen aus den Backups wieder her
<a name="restore-iis-websites-and-configuration-from-the-backups"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die IIS-Websites und die Konfiguration wieder her. | Gehen Sie wie folgt vor, um die IIS-Backups wiederherzustellen, die Sie vom Quellserver auf dem Zielserver erstellt haben:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd.html) | IIS-Administrator | 

## Zugehörige Ressourcen
<a name="migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd-resources"></a>

**AWS Dokumentation**
+ [Installation des AWS Replication Agents](https://docs.aws.amazon.com/mgn/latest/ug/agent-installation.html) (AWS Application Migration Service Dokumentation)

**AWS Präskriptive Leitlinien**
+ [Migrieren Sie eine lokale VM zu Amazon mithilfe EC2 von AWS Application Migration Service](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service.html)
+ [Verwenden von AMIs Amazon EBS-Snapshots für Backups](https://docs.aws.amazon.com/prescriptive-guidance/latest/backup-recovery/ec2-backup.html#amis-snapshots)

**Microsoft-Ressourcen**
+ [Identitäten des Anwendungspools](https://learn.microsoft.com/en-us/troubleshoot/developer/webapps/iis/was-service-svchost-process-operation/understanding-identities#application-pool-identities)
+ [IIS-Dokumentation](https://learn.microsoft.com/en-us/iis/)
+ [Dokumentation zu IIS 8 appcmd.exe](https://docs.microsoft.com/en-us/previous-versions/windows/it-pro/windows-server-2012-r2-and-2012/jj635852(v=ws.11))
+ [Dokumentation zu IIS 10 appcmd.exe](https://learn.microsoft.com/en-us/iis/get-started/whats-new-in-iis-10/new-features-introduced-in-iis-10)
+ [Leistungsstarke Admin-Tools](https://learn.microsoft.com/en-us/iis/overview/powerful-admin-tools)

# Migrieren Sie EC2 mithilfe des Application Migration Service eine lokale Microsoft SQL Server-Datenbank zu Amazon
<a name="migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn"></a>

*Senthil Ramasamy, Amazon Web Services*

## Zusammenfassung
<a name="migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn-summary"></a>

Dieses Muster beschreibt die Schritte zur Migration einer Microsoft SQL Server-Datenbank von einem lokalen Rechenzentrum zu einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance. Es verwendet das AWS Application Migration Service (AWS MGN), um Ihre Datenbank mithilfe einer automatisierten Migration neu zu hosten. lift-and-shift AWS MGN führt die Replikation Ihres Quelldatenbankservers auf Blockebene durch.

## Voraussetzungen und Einschränkungen
<a name="migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn-prereqs"></a>

**Voraussetzungen**
+ Ein aktiver AWS-Konto
+ Eine Microsoft SQL Server-Quelldatenbank in einem lokalen Rechenzentrum

**Einschränkungen**
+ Ihre Netzwerkbandbreite zwischen dem lokalen Rechenzentrum und ist möglicherweise begrenzt. AWS
+ AWS MGN ist auf Datenbanken beschränkt, die auf eigenständigen Servern mit dediziertem Speicher gehostet werden. Es unterstützt nicht die Migration von geclusterten Datenbanksystemen und Datenbanksystemen, bei denen die Änderungsrate den Durchsatz eines Netzwerks übersteigt.
+ Einige AWS-Services sind nicht in allen verfügbar. AWS-Regionen Informationen zur Verfügbarkeit in den einzelnen Regionen finden Sie [AWS-Services unter Nach Regionen](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/). Informationen zu bestimmten Endpunkten finden Sie auf der [Seite Dienstendpunkte und Kontingente](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/). Wählen Sie dort den Link für den Dienst aus.

**Produktversionen**
+ Alle Versionen der Microsoft SQL Server-Datenbank
+ Windows- und Linux-Betriebssysteme, die [AWS MGN unterstützen](https://docs.aws.amazon.com/mgn/latest/ug/Supported-Operating-Systems.html)

## Architektur
<a name="migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn-architecture"></a>

**Quelltechnologie-Stack**

Eine lokale Microsoft SQL Server-Datenbank

**Zieltechnologie-Stack**

Eine Microsoft SQL Server-Datenbank auf einer EC2 Amazon-Instance

**Zielarchitektur**

![\[Replizieren Sie Daten aus einem lokalen Unternehmensrechenzentrum nach AWS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/a459eaef-c256-4691-a7ec-2304f634228c/images/d8d6cee7-f42c-4686-bf92-6e6d39adfb17.png)


Diese Architektur verwendet AWS MGN, um Daten aus einem lokalen Unternehmensrechenzentrum zu replizieren. AWS Das Diagramm zeigt den Datenreplikationsprozess, die API-Kommunikation sowie die Test- und Umstellungsphasen.

1. Datenreplikation:
   + AWS MGN repliziert Daten aus dem lokalen Unternehmensrechenzentrum in das Rechenzentrum des Unternehmens AWS und initiiert die fortlaufende Replikation von Änderungen.
   + Replikationsserver im Staging-Subnetz empfangen und verarbeiten die Daten.

1. API-Kommunikation:
   + Replikationsserver stellen über TCP-Port 443 eine Verbindung zu den API-Endpunkten von AWS MGN EC2, Amazon und Amazon Simple Storage Service (Amazon S3) her.
   + AWS MGN verwaltet die Migration.
   + Amazon EC2 verwaltet den Instanzbetrieb.

1. Test und Umstellung:
   + Test-Instances werden im betriebsbereiten Subnetz mit replizierten Daten gestartet.
   + Nach erfolgreichen Tests erstellt AWS MGN Cutover-Instanzen für die endgültige Migration.

## Tools
<a name="migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn-tools"></a>
+ [AWS Application Migration Service (AWS MGN)](https://docs.aws.amazon.com/mgn/latest/ug/what-is-application-migration-service.html) unterstützt Sie beim Rehosten (*Lift and Shift*) von Anwendungen AWS Cloud ohne Änderungen und mit minimalen Ausfallzeiten.
+ [Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html)verbindet Ihr internes Netzwerk über ein Standard-Ethernet-Glasfaserkabel mit einem Direct Connect-Standort. Mit dieser Verbindung können Sie virtuelle Schnittstellen direkt zu öffentlichen AWS Diensten einrichten und dabei Internetdienstanbieter in Ihrem Netzwerkpfad umgehen.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/concepts.html) bietet skalierbare Rechenkapazität in der AWS Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.

## Best Practices
<a name="migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn-best-practices"></a>
+ Richten Sie regionale API-Endpunkte für AWS MGN EC2, Amazon und Amazon S3 in der Virtual Private Cloud (VPC) ein, um den öffentlichen Zugriff über das Internet zu verbieten.
+ Richten Sie die AWS MGN-Starteinstellungen ein, um Zieldatenbankserver in einem privaten Subnetz zu starten.
+ Erlauben Sie nur die erforderlichen Ports in Datenbanksicherheitsgruppen.
+ Folgen Sie dem Prinzip der geringsten Rechte und gewähren Sie die für die Ausführung einer Aufgabe erforderlichen Mindestberechtigungen. Weitere Informationen finden Sie in der IAM-Dokumentation unter [Gewährung der geringsten Rechte](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies.html#grant-least-priv) und [bewährte Methoden zur Sicherheit](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html).

## Epen
<a name="migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn-epics"></a>

### AWS MGN einrichten
<a name="set-up-aws-mgn"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
|  AWS MGN konfigurieren. | Suchen Sie nach dem AWS Application Migration Service AWS-Managementkonsole in und starten Sie den Einrichtungsvorgang. Dadurch wird eine Replikationsvorlage erstellt und Sie werden zur Seite **Quellserver** der MGN-Konsole weitergeleitet. Wählen Sie bei der Konfiguration des MGN-Dienstes eine Servicerolle aus der generierten Liste aus. | DBA, Migrationsingenieur | 
| Quellserver hinzufügen. | Fügen Sie Details zu Ihrem lokalen Quelldatenbankserver hinzu und fügen Sie dann den Server hinzu. | DBA, Migrationsingenieur | 
| Installieren Sie den AWS MGN-Agenten auf dem Quellserver. | Laden Sie das Installationsprogramm für den AWS MGN Agent auf Ihr lokales System herunter und übertragen Sie das Installationsprogramm auf Ihren Quelldatenbankserver. Informationen zur Überprüfung des Installer-Hash finden Sie unter Überprüfen des heruntergeladenen [AWS Replication Agent-Installationsprogramms für Windows 2012](https://docs.aws.amazon.com/mgn/latest/ug/windows-agent.html#installer-hash-table-2012). | DBA, Migrationsingenieur | 

### Installieren Sie den AWS MGN Agent auf Quellcomputern
<a name="install-aws-mgn-agent-on-source-machines"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Generieren Sie Client-IAM-Anmeldeinformationen. | Generieren Sie vor der Installation des AWS MGN-Agenten AWS Anmeldeinformationen, indem Sie einen neuen IAM-Benutzer mit den entsprechenden Berechtigungen erstellen.Weitere Informationen finden Sie unter Von [AWS verwaltete Richtlinien für AWS Application Migration Service](https://docs.aws.amazon.com/mgn/latest/ug/security-iam-awsmanpol.html) und [Generierung der erforderlichen AWS Anmeldeinformationen](https://docs.aws.amazon.com/mgn/latest/ug/credentials.html). | DBA, Migrationsingenieur | 
| Installieren Sie den Agenten auf dem Quellserver. | Installieren Sie den Agenten auf dem Quellcomputer, der die Microsoft SQL Server-Datenbank hostet. Weitere Informationen finden Sie unter [Installation des AWS Replication Agents auf Windows-Servern](https://docs.aws.amazon.com/mgn/latest/ug/windows-agent.html).Geben Sie die folgenden AWS-Anmeldeinformationen ein:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn.html)Ihre eindeutigen AWS Anmeldeinformationen ermöglichen es dem AWS MGN-Agenten, sich zu authentifizieren und Migrationsaufgaben auszuführen. | App-Besitzer, DBA, Migrationsingenieur | 
| Wählen Sie die zu replizierenden Festplatten aus. | Nach Eingabe Ihrer AWS Anmeldeinformationen überprüft das Installationsprogramm, ob Ihr Server die Mindestanforderungen für die Agenteninstallation erfüllt (z. B. ob der Server über ausreichend Festplattenspeicher für die Installation des AWS MGN-Agenten verfügt). Das Installationsprogramm zeigt die Datenträgerbezeichnungen und Speicherdetails an.Um Ihre Datenbank mithilfe des AWS MGN-Dienstes zu replizieren, wählen Sie die entsprechenden Festplatten auf Ihrem Quellserver aus. Geben Sie den Pfad der einzelnen Festplatten durch Kommas getrennt ein. Wenn Sie alle Festplatten replizieren möchten, lassen Sie den Pfad leer. Nachdem Sie die ausgewählten Festplatten bestätigt haben, wird die Installation fortgesetzt. | DBA, Migrationsingenieur | 
| Überwachen Sie den Synchronisierungsfortschritt. | AWS Der Replication Agent initiiert den Synchronisierungsvorgang, indem er zuerst einen Snapshot der ausgewählten Festplatten erstellt und dann die Daten repliziert.Sie können den Synchronisierungsfortschritt auf der Seite **Quellserver** in der AWS MGN-Konsole überwachen. Weitere Informationen finden Sie unter [Überwachen des Servers im Migrationslebenszyklus](https://docs.aws.amazon.com/mgn/latest/ug/migration-dashboard.html). | DBA, Migrationsingenieur | 

### Replikation mit AWS MGN
<a name="replication-using-aws-mgn"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwalten Sie den Replikationsfortschritt. | Nachdem Sie die erste Synchronisation gestartet haben, wird Ihr Quellserver in der AWS MGN-Konsole angezeigt, wo Sie die Migration verwalten und überwachen können. In der Konsole wird eine geschätzte Zeit für die vollständige Replikation angezeigt, die auf der Gesamtgröße der ausgewählten Festplatten und der verfügbaren Netzwerkbandbreite basiert. | DBA, Migrationsingenieur | 
| Überprüfen Sie die Synchronisation. | Nachdem die Festplatten auf dem Quellserver vollständig synchronisiert wurden, stellen Sie sicher, dass alle ausgewählten Festplatten als vollständig synchronisiert aufgeführt sind und dass in der Konsole keine Fehler gemeldet werden.Die AWS MGN-Konsole wechselt dann automatisch den Status des Migrationslebenszyklus auf **Bereit zum Testen**, was darauf hinweist, dass die replizierte Umgebung für Leistungs- und Funktionstests vorbereitet AWS ist. | App-Besitzer, DBA, Migrationsingenieur | 

### Testen und überarbeiten
<a name="test-and-cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie die Starteinstellungen. | Wählen Sie den Quellserver in der AWS MGN-Konsole aus und aktualisieren Sie die Starteinstellungen für die Ziel-Testinstanz. Navigieren Sie auf der **Detailseite des Quellservers** zur Registerkarte **Starteinstellungen**, um die Testinstanz zu konfigurieren.Wählen Sie einen kostengünstigen Instance-Typ und einen Amazon Elastic Block Store (Amazon EBS) -Volumetyp und konfigurieren Sie dann die Sicherheitsgruppen und Netzwerkanforderungen. Weitere Informationen finden Sie unter [Starteinstellungen.](https://docs.aws.amazon.com/mgn/latest/ug/launch-settings.html) | DBA, Migrationsingenieur | 
| Starten Sie die Ziel-Testinstanz. | Navigieren Sie zur AWS MGN-Konsole Ihres synchronisierten Quellcomputers und starten Sie eine Ziel-Testinstanz, indem Sie **Testen und Überschneiden und** dann **Testinstanzen starten** auswählen.Dadurch wird ein Startjob erstellt, der die Testinstanz mithilfe Ihrer konfigurierten Einstellungen bereitstellt. Die Instance wird in der Umgebung Ihres Quelldatenbankservers gestartet AWS Cloud und repliziert diese. Überwachen Sie den Startfortschritt auf der Seite mit dem **Startverlauf**, auf der Sie die Erstellung der Instance verfolgen und etwaige Probleme beheben können. | DBA, Migrationsingenieur | 
| Validieren Sie die Ziel-Testinstanz. | Überprüfen Sie den EC2 Amazon-Datenbankserver:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn.html)Führen Sie Validierungstests durch, um sicherzustellen, dass die Datenbank wie erwartet funktioniert. | DBA, Migrationsingenieur | 
| Benennen Sie den Server um. | AWS Die MGN-Migration beinhaltet eine Kopie Ihres lokalen Quellservers auf Speicherebene. Ihre SQL EC2 Server-Instanz enthält nur die Details des ursprünglichen Quellservers in ihren Binärdateien. Aktualisieren Sie daher die Binärinformationen, sodass sie den Namen des neuen Servers widerspiegeln.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn.html) | DBA, Migrationsingenieur | 
| Starten Sie die Cutover-Instanz. | Vergewissern Sie sich in der AWS MGN-Konsole auf der Seite **Quellserver**, dass der Status des Migrationslebenszyklus des Servers „**Bereit für** die Übernahme“ lautet. Konfigurieren Sie die Starteinstellungen für die Cutover-Instance und stellen Sie sicher, dass die Einstellungen Ihrer lokalen Umgebung entsprechen.Bevor Sie die Übernahme einleiten, fahren Sie Ihre lokale Datenbank herunter. Dadurch wird Folgendes gewährleistet:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn.html)Initiieren Sie die Cutover-Instanz in der AWS MGN-Konsole. Wenn die Cutover-Instanz betriebsbereit ist, melden Sie sich bei der Instanz an und führen Sie die folgenden Tests durch:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn.html) | App-Besitzer, DBA, Migrationsingenieur, Migrationsleiter | 

## Fehlerbehebung
<a name="migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Die erste Synchronisation schlägt beim Authentifizierungsschritt fehl. | Dies ist ein Problem mit der Netzwerkkonnektivität. Der Replikationsserver kann keine Verbindung zu AWS MGN herstellen. | 

## Zugehörige Ressourcen
<a name="migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn-resources"></a>

**AWS-Dokumentation**
+ [Erste Schritte mit AWS Application Migration Service](https://docs.aws.amazon.com/mgn/latest/ug/getting-started.html)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank zu Amazon EC2](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2.html)
+ [Was ist Microsoft SQL Server auf Amazon EC2?](https://docs.aws.amazon.com/sql-server-ec2/latest/userguide/sql-server-on-ec2-overview.html)

**Videos**
+ [Durchführung einer Lift-and-Shift-Migration mit AWS Application Migration Service](https://www.youtube.com/watch?v=tB0sAR3aCb4) (Video)

# Migrieren Sie einen F5 BIG-IP-Workload zu F5 BIG-IP VE auf dem AWS Cloud
<a name="migrate-an-f5-big-ip-workload-to-f5-big-ip-ve-on-the-aws-cloud"></a>

*Deepak Kumar, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-f5-big-ip-workload-to-f5-big-ip-ve-on-the-aws-cloud-summary"></a>

Organizations möchten auf die migrieren, AWS Cloud um ihre Agilität und Widerstandsfähigkeit zu erhöhen. Nachdem Sie Ihre [F5 BIG-IP-Sicherheits](https://www.f5.com/products/big-ip-services) - und Verkehrsmanagementlösungen auf die migriert haben AWS Cloud, können Sie sich auf die Agilität und die Einführung hochwertiger Betriebsmodelle in Ihrer gesamten Unternehmensarchitektur konzentrieren.

Dieses Muster beschreibt, wie Sie einen F5 BIG-IP-Workload auf einen F5 BIG-IP Virtual Edition (VE) [-Workload](https://www.f5.com/products/big-ip-services/virtual-editions) auf dem migrieren. AWS Cloud Der Workload wird migriert, indem die bestehende Umgebung neu gehostet und Aspekte der Plattformumstellung wie Serviceerkennung und API-Integrationen implementiert werden. [AWS CloudFormation Vorlagen](https://github.com/F5Networks/f5-aws-cloudformation) beschleunigen die Migration Ihres Workloads auf die. AWS Cloud

Dieses Muster richtet sich an Teams aus den Bereichen Technik und Architektur, die die Sicherheits- und Verkehrsmanagementlösungen von F5 migrieren. Es ist Teil des Leitfadens [Migration von F5 BIG-IP zu F5 BIG-IP](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-f5-big-ip/welcome.html) VE auf der Prescriptive Guidance-Website. AWS Cloud AWS 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-f5-big-ip-workload-to-f5-big-ip-ve-on-the-aws-cloud-prereqs"></a>

**Voraussetzungen**
+ Ein vorhandener lokaler F5 BIG-IP-Workload.
+ Bestehende F5-Lizenzen für BIG-IP VE-Versionen.
+ Ein aktiver. AWS-Konto
+ Eine bestehende Virtual Private Cloud (VPC), die mit einem Ausgang über ein NAT-Gateway oder eine Elastic IP-Adresse konfiguriert und mit Zugriff auf die folgenden Endpunkte konfiguriert ist: Amazon Simple Storage Service (Amazon S3), Amazon Elastic Compute Cloud (Amazon EC2), AWS -Security-Token-Service (AWS STS) und Amazon. CloudWatch Sie können auch die [modulare und skalierbare VPC-Architektur](https://aws.amazon.com/quickstart/architecture/vpc/) Quick Start als Baustein für Ihre Bereitstellungen modifizieren. 
+ Eine oder zwei bestehende Availability Zones, je nach Ihren Anforderungen. 
+ Drei bestehende private Subnetze in jeder Availability Zone.
+ AWS CloudFormation Vorlagen, [verfügbar im F5-Repository GitHub ](https://github.com/F5Networks/f5-aws-cloudformation/blob/master/template-index.md). 

Während der Migration können Sie je nach Ihren Anforderungen auch Folgendes verwenden:
+ Eine [F5 Cloud Failover Extension](https://clouddocs.f5.com/products/extensions/f5-cloud-failover/latest/) zur Verwaltung der Elastic IP-Adresszuweisung, der sekundären IP-Zuordnung und der Änderungen an der Routentabelle. 
+ Wenn Sie mehrere Availability Zones verwenden, müssen Sie die F5 Cloud Failover Extensions verwenden, um die Elastic IP-Zuordnung zu virtuellen Servern zu verwalten.
+ Sie sollten erwägen, [F5 Application Services 3 (AS3)](https://clouddocs.f5.com/products/extensions/f5-appsvcs-extension/latest/), [F5 Application Services Templates (FAST)](https://clouddocs.f5.com/products/extensions/f5-appsvcs-templates/latest/) oder ein anderes Infrastructure-as-Code-Modell (IaC) zur Verwaltung der Konfigurationen zu verwenden. Die Vorbereitung der Konfigurationen in einem IaC-Modell und die Verwendung von Code-Repositorys helfen Ihnen bei der Migration und Ihren laufenden Verwaltungsbemühungen.

**Fachwissen**
+ Dieses Muster erfordert Vertrautheit mit der Art und Weise, wie ein oder mehrere Rechenzentren mit vorhandenen Rechenzentren verbunden werden VPCs können. Weitere Informationen dazu finden Sie unter [Network-to-Amazon VPC-Konnektivitätsoptionen](https://docs.aws.amazon.com/whitepapers/latest/aws-vpc-connectivity-options/network-to-amazon-vpc-connectivity-options.html) in der Amazon VPC-Dokumentation. 
+ [Außerdem sind Kenntnisse der Produkte und Module von F5 erforderlich, darunter [Traffic Management Operating System (TMOS)](https://www.f5.com/services/resources/white-papers/tmos-redefining-the-solution), [Local Traffic Manager (LTM)](https://www.f5.com/products/big-ip-services/local-traffic-manager), [Global Traffic Manager (GTM), Access Policy Manager (APM)](https://techdocs.f5.com/kb/en-us/products/big-ip_gtm/manuals/product/gtm-concepts-11-5-0/1.html#unique_9842886)[, Application Security Manager (ASM)](https://www.f5.com/products/security/access-policy-manager)[, [Advanced Firewall Manager (](https://www.f5.com/products/security/advanced-firewall-manager)AFM)](https://www.f5.com/pdf/products/big-ip-application-security-manager-overview.pdf) und BIG-IQ.](https://www.f5.com/products/automation-and-orchestration/big-iq)

**Produktversionen**
+ [Wir empfehlen, F5 BIG-IP [Version 13.1](https://techdocs.f5.com/kb/en-us/products/big-ip_ltm/releasenotes/product/relnote-bigip-ve-13-1-0.html) oder höher zu verwenden, obwohl das Muster F5 BIG-IP Version 12.1 oder höher unterstützt.](https://techdocs.f5.com/kb/en-us/products/big-ip_ltm/releasenotes/product/relnote-bigip-12-1-4.html)

## Architektur
<a name="migrate-an-f5-big-ip-workload-to-f5-big-ip-ve-on-the-aws-cloud-architecture"></a>

**Quelltechnologie-Stack**
+ F5 BIG-IP-Arbeitslast

**Zieltechnologie-Stack**
+ Amazon CloudFront
+ CloudWatch
+ Amazon EC2
+ Amazon S3
+ Amazon VPC
+ AWS Global Accelerator
+ AWS STS
+ AWS Transit Gateway
+ F5 BIG-UP

**Zielarchitektur**

![\[Architektur für die Migration eines F5 BIG-IP-Workloads auf einen F5 BIG-IP VE-Workload.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/586fe806-fac1-48d3-9eb1-45a6c86430dc/images/16d7fc09-1ffe-4721-b503-d971db84cbae.png)


## Tools
<a name="migrate-an-f5-big-ip-workload-to-f5-big-ip-ve-on-the-aws-cloud-tools"></a>
+ [CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html)hilft Ihnen dabei, AWS Ressourcen einzurichten, sie schnell und konsistent bereitzustellen und sie während ihres gesamten Lebenszyklus über und zu verwalten. AWS-Konten AWS-Regionen
+ [Amazon CloudFront](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/Introduction.html) beschleunigt die Verteilung Ihrer Webinhalte, indem es sie über ein weltweites Netzwerk von Rechenzentren bereitstellt, was die Latenz senkt und die Leistung verbessert.   
+ [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) hilft Ihnen dabei, die Kennzahlen Ihrer AWS Ressourcen und der Anwendungen, auf denen Sie laufen, AWS in Echtzeit zu überwachen.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/) bietet skalierbare Rechenkapazität in der AWS Cloud Sie können so viele virtuelle Server starten, wie Sie benötigen, und diese schnell nach oben oder unten skalieren.
+ [AWS Identity and Access Management (IAM)](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) hilft Ihnen dabei, den Zugriff auf Ihre AWS Ressourcen sicher zu verwalten, indem kontrolliert wird, wer authentifiziert und autorisiert ist, diese zu verwenden.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.
+ [AWS -Security-Token-Service (AWS STS)](https://docs.aws.amazon.com/STS/latest/APIReference/welcome.html) hilft Ihnen dabei, temporäre Anmeldeinformationen mit eingeschränkten Rechten für Benutzer anzufordern.
+ [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw/what-is-transit-gateway.html)ist ein zentraler Hub, der virtuelle private Clouds (VPCs) und lokale Netzwerke verbindet.
+ [Amazon Virtual Private Cloud (Amazon VPC)](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html) hilft Ihnen dabei, AWS Ressourcen in einem von Ihnen definierten virtuellen Netzwerk bereitzustellen. Dieses virtuelle Netzwerk entspricht einem herkömmlichen Netzwerk, wie Sie es in Ihrem Rechenzentrum betreiben würden, mit den Vorteilen der Verwendung der skalierbaren Infrastruktur von AWS.

## Epen
<a name="migrate-an-f5-big-ip-workload-to-f5-big-ip-ve-on-the-aws-cloud-epics"></a>

### Entdeckung und Bewertung
<a name="discovery-and-assessment"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Beurteilen Sie die Leistung von F5 BIG-IP. | Erfassen und notieren Sie die Leistungskennzahlen der Anwendungen auf dem virtuellen Server sowie die Messwerte der Systeme, die migriert werden sollen. Dies hilft bei der richtigen Dimensionierung der AWS Zielinfrastruktur für eine bessere Kostenoptimierung. | F5 Architekt, Ingenieur und Netzwerkarchitekt, Ingenieur | 
| Evaluieren Sie das F5 BIG-IP-Betriebssystem und die Konfiguration. | Evaluieren Sie, welche Objekte migriert werden sollen und ob eine Netzwerkstruktur beibehalten werden muss, z. VLANs | F5 Architekt, Ingenieur | 
| Evaluieren Sie die F5-Lizenzoptionen. | Prüfen Sie, welches Lizenz- und Nutzungsmodell Sie benötigen. Diese Bewertung sollte auf Ihrer Bewertung des F5 BIG-IP-Betriebssystems und der Konfiguration basieren. | F5 Architekt, Ingenieur | 
| Evaluieren Sie die öffentlichen Anwendungen. | Ermitteln Sie, für welche Anwendungen öffentliche IP-Adressen erforderlich sind. Ordnen Sie diese Anwendungen den erforderlichen Instanzen und Clustern zu, um die Leistungs- und SLA-Anforderungen (Service Level Agreement) zu erfüllen. | F5-Architekt, Cloud-Architekt, Netzwerkarchitekt, Ingenieur, Anwendungsteams | 
| Evaluieren Sie interne Anwendungen. | Evaluieren Sie, welche Anwendungen von internen Benutzern verwendet werden. Stellen Sie sicher, dass Sie wissen, wo sich diese internen Benutzer in der Organisation befinden und wie diese Umgebungen mit den verbunden sind AWS Cloud. Sie sollten auch sicherstellen, dass diese Anwendungen das Domain Name System (DNS) als Teil der Standarddomäne verwenden können. | F5-Architekt, Cloud-Architekt, Netzwerkarchitekt, Ingenieur, Anwendungsteams | 
| Finalisieren Sie das AMI. | Nicht alle F5 BIG-IP-Versionen werden als Amazon Machine Images () erstellt. AMIs Sie können das F5 BIG-IP Image Generator Tool verwenden, wenn Sie über spezielle QFE-Versionen (Quick-Fix Engineering) verfügen. Weitere Informationen zu diesem Tool finden Sie im Abschnitt „Verwandte Ressourcen“. | F5-Architekt, Cloud-Architekt, Ingenieur | 
| Finalisieren Sie die Instanztypen und die Architektur. | Entscheiden Sie sich für die Instance-Typen, die VPC-Architektur und die vernetzte Architektur. | F5-Architekt, Cloud-Architekt, Netzwerkarchitekt, Ingenieur | 

### Vollständige Aktivitäten im Zusammenhang mit Sicherheit und Compliance
<a name="complete-security-and-compliance-related-activities"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Dokumentieren Sie die bestehenden F5-Sicherheitsrichtlinien. | Sammeln und dokumentieren Sie die vorhandenen F5-Sicherheitsrichtlinien. Stellen Sie sicher, dass Sie eine Kopie davon in einem sicheren Code-Repository erstellen. | F5 Architekt, Ingenieur | 
| Verschlüsseln Sie das AMI. | (Optional) Ihre Organisation benötigt möglicherweise die Verschlüsselung von Daten im Ruhezustand. Weitere Informationen zum Erstellen eines benutzerdefinierten BYOL-Images (Bring Your Own License) finden Sie im Abschnitt „Verwandte Ressourcen“. | F5-Architekt, Ingenieur, Cloud-Architekt, Ingenieur | 
| Härten Sie die Geräte aus. | Dies trägt zum Schutz vor potenziellen Sicherheitslücken bei. | F5 Architekt, Ingenieur | 

### Konfigurieren Sie Ihre neue Umgebung AWS
<a name="configure-your-new-aws-environment"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie Edge- und Sicherheitskonten. | Melden Sie sich bei dem an AWS-Managementkonsole und erstellen Sie AWS-Konten das, das die Edge- und Sicherheitsdienste bereitstellt und betreibt. Diese Konten können sich von den Konten unterscheiden, die VPCs für gemeinsam genutzte Dienste und Anwendungen verwendet werden. Dieser Schritt kann als Teil einer landing zone abgeschlossen werden. | Cloud-Architekt, Ingenieur | 
| Stellen Sie Edge und Sicherheit bereit VPCs. | Richten Sie die für die Bereitstellung von Edge- und Sicherheitsdiensten VPCs erforderlichen Dienste ein und konfigurieren Sie sie. | Cloud-Architekt, Ingenieur | 
| Connect zum Quellrechenzentrum her. | Connect zum Quellrechenzentrum her, das Ihren F5 BIG-IP-Workload hostet. | Cloud-Architekt, Netzwerkarchitekt, Ingenieur | 
| Stellen Sie die VPC-Verbindungen bereit. | Connect den Edge- und Sicherheitsdienst VPCs mit der Anwendung VPCs. | Netzwerkarchitekt, Ingenieur | 
| Stellen Sie die Instanzen bereit. | Stellen Sie die Instanzen mithilfe der CloudFormation Vorlagen aus dem Abschnitt „Verwandte Ressourcen“ bereit. | F5 Architekt, Ingenieur | 
| Testen und konfigurieren Sie den Instanz-Failover. | Stellen Sie sicher, dass die AWS Advanced HA iApp-Vorlage oder die F5 Cloud Failover Extension konfiguriert ist und ordnungsgemäß funktioniert. | F5 Architekt, Ingenieur | 

### Netzwerk konfigurieren
<a name="configure-networking"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie die VPC-Topologie vor. | Öffnen Sie die Amazon VPC-Konsole und stellen Sie sicher, dass Ihre VPC über alle erforderlichen Subnetze und Schutzmaßnahmen für die F5 BIG-IP VE-Bereitstellung verfügt. | Netzwerkarchitekt, F5-Architekt, Cloud-Architekt, Ingenieur | 
| Bereiten Sie Ihre VPC-Endpoints vor. | Bereiten Sie die VPC-Endpoints für Amazon EC2, Amazon S3 und für den AWS STS Fall vor, dass ein F5 BIG-IP-Workload keinen Zugriff auf ein NAT-Gateway oder eine Elastic IP-Adresse auf einer TMM-Schnittstelle hat. | Cloud-Architekt, Ingenieur | 

### Daten migrieren
<a name="migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie die Konfiguration. | Migrieren Sie die F5 BIG-IP-Konfiguration auf F5 BIG-IP VE auf dem. AWS Cloud | F5 Architekt, Ingenieur | 
| Ordnen Sie die Sekundarstufe IPs zu. | Die IP-Adressen virtueller Server stehen in einer Beziehung zu den sekundären IP-Adressen, die den Instanzen zugewiesen sind. Weisen Sie sekundäre IP-Adressen zu und stellen Sie sicher, dass „Neuzuordnung/Neuzuweisung zulassen“ ausgewählt ist. | F5 Architekt, Ingenieur | 

### Konfigurationen testen
<a name="test-configurations"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die virtuellen Serverkonfigurationen. | Testen Sie die virtuellen Server. | F5-Architekt, Anwendungsteams | 

### Schließen Sie den Betrieb ab
<a name="finalize-operations"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Backup-Strategie. | Die Systeme müssen heruntergefahren werden, um einen vollständigen Snapshot zu erstellen. Weitere Informationen finden Sie unter „Aktualisierung einer virtuellen F5 BIG-IP-Maschine“ im Abschnitt „Verwandte Ressourcen“. | F5-Architekt, Cloud-Architekt, Ingenieur | 
| Erstellen Sie das Cluster-Failover-Runbook. | Stellen Sie sicher, dass der Failover-Runbook-Vorgang abgeschlossen ist. | F5 Architekt, Ingenieur | 
| Richten Sie die Protokollierung ein und validieren Sie sie. | Konfigurieren Sie das F5-Telemetrie-Streaming so, dass Protokolle an die erforderlichen Ziele gesendet werden. | F5 Architekt, Ingenieur | 

### Schließen Sie die Umstellung ab
<a name="complete-the-cutover"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Gehen Sie zur neuen Bereitstellung über. |  | F5-Architekt, Cloud-Architekt, Netzwerkarchitekt, Ingenieur, AppTeams | 

## Zugehörige Ressourcen
<a name="migrate-an-f5-big-ip-workload-to-f5-big-ip-ve-on-the-aws-cloud-resources"></a>

**Leitfaden zur Migration**
+ [Migration von F5 BIG-IP zu F5 BIG-IP VE auf dem AWS Cloud](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-f5-big-ip/welcome.html)

**F5-Ressourcen**
+ [CloudFormation Vorlagen im F5-Repository GitHub ](https://github.com/F5Networks/f5-aws-cloudformation)
+ [F5 rein AWS Marketplace](https://aws.amazon.com/marketplace/seller-profile?id=74d946f0-fa54-4d9f-99e8-ff3bd8eb2745)
+ [Überblick über F5 BIG-IP VE](https://www.f5.com/products/big-ip-services/virtual-editions) 
+ [Beispiel für einen Schnellstart — BIG-IP Virtual Edition mit WAF (LTM \$1 ASM)](https://github.com/F5Networks/f5-aws-cloudformation-v2/tree/main/examples/quickstart)
+ [Die Anwendungsdienste von F5 auf AWS einen Blick: ein Überblick (Video)](https://www.youtube.com/watch?v=kutVjRHOAXo)
+ [Benutzerhandbuch für die F5 Application Services 3-Erweiterung](https://clouddocs.f5.com/products/extensions/f5-appsvcs-extension/latest/)
+ [F5 Cloud-Dokumentation](https://clouddocs.f5.com/training/community/public-cloud/html/intro.html)
+ [F5 iControl REST-Wiki](https://clouddocs.f5.com/api/icontrol-rest/)
+ [F5 Überblick über einzelne Konfigurationsdateien (11.x - 15.x)](https://support.f5.com/csp/article/K13408)
+ [F5-Whitepapers](https://www.f5.com/services/resources/white-papers)
+ [Das F5 BIG-IP-Bildgenerator-Tool](https://clouddocs.f5.com/cloud/public/v1/ve-image-gen_index.html)
+ [Aktualisierung einer virtuellen F5 BIG-IP VE-Maschine](https://techdocs.f5.com/kb/en-us/products/big-ip_ltm/manuals/product/bigip-ve-setup-vmware-esxi-11-5-0/3.html)
+ [Überblick über die Option „Plattform-Migrate“ für das UCS-Archiv](https://support.f5.com/csp/article/K82540512)

# Migrieren Sie eine lokale Go-Webanwendung mithilfe der binären Methode zu AWS Elastic Beanstalk
<a name="migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method"></a>

*Suhas Basavaraj und Shumaz Mukhtar Kazi, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method-summary"></a>

Dieses Muster beschreibt, wie eine lokale Go-Webanwendung zu AWS Elastic Beanstalk migriert wird. Nach der Migration der Anwendung erstellt Elastic Beanstalk die Binärdatei für das Quellpaket und stellt sie auf einer Amazon Elastic Compute Cloud (Amazon) -Instance bereit. EC2

Als Strategie für die Rehost-Migration ist dieses Muster schnell und erfordert keine Codeänderungen, was weniger Test- und Migrationszeit bedeutet. 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto.
+ Eine lokale Go-Webanwendung.
+ Ein GitHub Repository, das den Quellcode Ihrer Go-Anwendung enthält. Wenn Sie es nicht verwenden GitHub, gibt es andere Möglichkeiten, [ein Anwendungsquellpaket für Elastic Beanstalk zu erstellen](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/applications-sourcebundle.html).

**Produktversionen**
+ Die neueste Go-Version, die von Elastic Beanstalk unterstützt wird. Weitere Informationen finden Sie in der [Elastic Beanstalk Beanstalk-Dokumentation](https://docs.aws.amazon.com/elasticbeanstalk/latest/platforms/platforms-supported.html#platforms-supported.go).

## Architektur
<a name="migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method-architecture"></a>

**Quelltechnologie-Stack**
+ Eine lokale Go-Webanwendung 

**Zieltechnologie-Stack**
+ AWS Elastic Beanstalk
+ Amazon CloudWatch

**Zielarchitektur****

![\[Architektur für die Migration einer Go-Anwendung zu Elastic Beanstalk\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/cd8d660d-5621-4ea7-8f97-7a1e321c57d3/images/1df543d9-7073-43d8-abd3-f1f7e57278eb.png)


## Tools
<a name="migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method-tools"></a>
+ [AWS Elastic Beanstalk](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/GettingStarted.html) stellt Anwendungen in der AWS-Cloud schnell bereit und verwaltet sie, ohne dass Benutzer sich mit der Infrastruktur vertraut machen müssen, auf der diese Anwendungen ausgeführt werden. Elastic Beanstalk vereinfacht die komplexe Verwaltung, ohne Einschränkungen in Bezug auf Auswahl oder Kontrolle nach sich zu ziehen.
+ [GitHub](https://github.com/)ist ein verteiltes Open-Source-Versionskontrollsystem.

## Epen
<a name="migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method-epics"></a>

### Erstellen Sie die ZIP-Datei mit dem Quellpaket für die Go-Webanwendung
<a name="create-the-go-web-application-source-bundle-zip-file"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie das Quellpaket für die Go-Anwendung.  | Öffnen Sie das GitHub Repository, das den Quellcode Ihrer Go-Anwendung enthält, und bereiten Sie das Quellpaket vor. Das Quellpaket enthält eine `application.go` Quelldatei im Stammverzeichnis, die das Hauptpaket für Ihre Go-Anwendung hostet. Wenn Sie es nicht verwenden GitHub, finden Sie im Abschnitt *Voraussetzungen* weiter oben in diesem Muster weitere Möglichkeiten, Ihr Anwendungsquellpaket zu erstellen. | Systemadministrator, Anwendungsentwickler | 
| Erstellen einer Konfigurationsdatei | Erstellen Sie einen `.ebextensions` Ordner in Ihrem Quellpaket und dann eine `options.config` Datei in diesem Ordner. Weitere Informationen finden Sie in der [Elastic Beanstalk Beanstalk-Dokumentation](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/ebextensions.html). | Systemadministrator, Anwendungsentwickler | 
|  Erstellen Sie die ZIP-Datei des Quellpakets. | Führen Sie den folgenden Befehl aus.<pre>git archive -o ../godemoapp.zip HEAD</pre>Dadurch wird die ZIP-Datei des Quellpakets erstellt. Laden Sie die ZIP-Datei herunter und speichern Sie sie als lokale Datei. Die ZIP-Datei darf 512 MB nicht überschreiten und darf keinen übergeordneten Ordner oder ein Verzeichnis der obersten Ebene enthalten. | Systemadministrator, Anwendungsentwickler | 

### Migrieren Sie die Go-Webanwendung zu Elastic Beanstalk
<a name="migrate-the-go-web-application-to-elastic-beanstalk"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Wählen Sie die Elastic Beanstalk Beanstalk-Anwendung. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method.html)Anweisungen zum Erstellen einer Elastic Beanstalk Beanstalk-Anwendung finden Sie in der Elastic Beanstalk [Beanstalk-Dokumentation](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/GettingStarted.CreateApp.html). | Systemadministrator, Anwendungsentwickler | 
| Initiieren Sie die Elastic Beanstalk Beanstalk-Webserver-Umgebung.  | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method.html) | Systemadministrator, Anwendungsentwickler | 
| Laden Sie die .zip-Datei des Quellpakets auf Elastic Beanstalk hoch. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method.html) | Systemadministrator, Anwendungsentwickler | 
| Testen Sie die bereitgestellte Go-Webanwendung. | Sie werden zur Übersichtsseite der Elastic Beanstalk Beanstalk-Anwendung weitergeleitet. Wählen Sie oben in der Übersicht neben **Environment ID** die URL aus, die mit „Um zu Ihrer Anwendung `elasticbeanstalk.com` zu navigieren“ endet. Ihre Anwendung muss diesen Namen in ihrer Konfigurationsdatei als Umgebungsvariable verwenden und ihn auf der Webseite anzeigen. | Systemadministrator, Anwendungsentwickler | 

## Fehlerbehebung
<a name="migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Auf die Anwendung kann nicht über einen Application Load Balancer zugegriffen werden. | Überprüfen Sie die Zielgruppe, die Ihre Elastic Beanstalk Beanstalk-Anwendung enthält. Wenn sie fehlerhaft ist, melden Sie sich bei Ihrer Elastic Beanstalk Beanstalk-Instance an und überprüfen Sie die `nginx.conf` Dateikonfiguration, um sicherzustellen, dass sie zur richtigen Integritätsstatus-URL weitergeleitet wird. Möglicherweise müssen Sie die URL für die Zustandsprüfung der Zielgruppe ändern. | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-go-web-application-to-aws-elastic-beanstalk-by-using-the-binary-method-resources"></a>
+ [Von Elastic Beanstalk unterstützte Go-Plattformversionen](https://docs.aws.amazon.com/elasticbeanstalk/latest/platforms/platforms-supported.html#platforms-supported.go)
+ [Verwenden von Konfigurationsdateien mit Elastic Beanstalk](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/ebextensions.html)
+ [Eine Beispielanwendung in Elastic Beanstalk erstellen](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/GettingStarted.CreateApp.html) 

# Migrieren Sie einen lokalen SFTP-Server auf AWS AWS Transfer for SFTP
<a name="migrate-an-on-premises-sftp-server-to-aws-using-aws-transfer-for-sftp"></a>

*Akash Kumar, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-sftp-server-to-aws-using-aws-transfer-for-sftp-summary"></a>

Dieses Muster beschreibt, wie Sie mithilfe des Dienstes eine lokale Dateiübertragungslösung, die das Secure Shell (SSH) File Transfer Protocol (SFTP) verwendet, auf den AWS Cloud migrieren. AWS Transfer for SFTP Benutzer stellen in der Regel entweder über seinen Domainnamen oder eine feste IP-Adresse eine Verbindung zu einem SFTP-Server her. Dieses Muster deckt beide Fälle ab.

AWS Transfer for SFTP ist Mitglied der AWS Transfer Family. Es ist ein sicherer Übertragungsdienst, mit dem Sie Dateien über SFTP in und aus AWS Speicherdiensten übertragen können. Sie können es AWS Transfer for SFTP mit Amazon Simple Storage Service (Amazon S3) oder Amazon Elastic File System (Amazon EFS) verwenden. Dieses Muster verwendet Amazon S3 für die Speicherung.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-sftp-server-to-aws-using-aws-transfer-for-sftp-prereqs"></a>

**Voraussetzungen**
+ Ein aktiver AWS-Konto.
+ Ein vorhandener SFTP-Domänenname oder eine feste SFTP-IP.

**Einschränkungen**
+ Das größte Objekt, das Sie in einer Anfrage übertragen können, ist derzeit 5 GiB groß. Für Dateien, die größer als 100 MiB sind, sollten Sie den [mehrteiligen Amazon S3 S3-Upload](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html) in Betracht ziehen.

## Architektur
<a name="migrate-an-on-premises-sftp-server-to-aws-using-aws-transfer-for-sftp-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale Flatfiles oder Datenbank-Dumpdateien.

**Zieltechnologie-Stack**
+ AWS Transfer for SFTP
+ Amazon S3
+ Amazon Virtual Private Cloud (Amazon VPC)
+ AWS Identity and Access Management (IAM) Rollen und Richtlinien
+ Elastic-IP-Adressen
+ Sicherheitsgruppen
+  CloudWatch Amazon-Protokolle (optional)

**Zielarchitektur**

![\[Verwenden Sie AWS Transfer for SFTP, um einen lokalen SFTP-Server in die AWS-Cloud zu migrieren.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/ec0a905c-edef-48ba-9b5e-ea4a4040d320/images/f42aa711-bfe0-4ac6-9f66-5c18a1dd1c7a.png)


**Automatisierung und Skalierung**

Verwenden Sie die beigefügten CloudFormation Vorlagen, um die Zielarchitektur für dieses Muster zu automatisieren:
+ `amazon-vpc-subnets.yml`stellt eine Virtual Private Cloud (VPC) mit zwei öffentlichen und zwei privaten Subnetzen bereit.
+ `amazon-sftp-server.yml`stellt den SFTP-Server bereit.
+ `amazon-sftp-customer.yml`fügt Benutzer hinzu.

## Tools
<a name="migrate-an-on-premises-sftp-server-to-aws-using-aws-transfer-for-sftp-tools"></a>

**AWS-Services**
+ [Amazon CloudWatch Logs](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/WhatIsCloudWatchLogs.html) hilft Ihnen dabei, die Protokolle all Ihrer Systeme und Anwendungen zu zentralisieren, AWS-Services sodass Sie sie überwachen und sicher archivieren können.
+ [AWS Identity and Access Management (IAM)](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) hilft Ihnen dabei, den Zugriff auf Ihre AWS Ressourcen sicher zu verwalten, indem kontrolliert wird, wer authentifiziert und autorisiert ist, sie zu verwenden.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt. Dieses Muster verwendet Amazon S3 als Speichersystem für Dateiübertragungen.
+ [AWS Transfer for SFTP](https://docs.aws.amazon.com/transfer/latest/userguide/what-is-aws-transfer-family.html)hilft Ihnen bei der Übertragung von Dateien in und aus AWS Speicherdiensten über das SFTP-Protokoll.
+ [Amazon Virtual Private Cloud (Amazon VPC)](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html) hilft Ihnen dabei, AWS Ressourcen in einem von Ihnen definierten virtuellen Netzwerk bereitzustellen. Dieses virtuelle Netzwerk entspricht einem herkömmlichen Netzwerk, wie Sie es in Ihrem Rechenzentrum betreiben würden, mit den Vorteilen der Verwendung der skalierbaren Infrastruktur von AWS.

## Epen
<a name="migrate-an-on-premises-sftp-server-to-aws-using-aws-transfer-for-sftp-epics"></a>

### Erstellen einer VPC
<a name="create-a-vpc"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine VPC mit Subnetzen. | Öffnen Sie die [Amazon VPC-Konsole](https://console.aws.amazon.com/vpc/). Erstellen Sie eine Virtual Private Cloud (VPC) mit zwei öffentlichen Subnetzen. (Das zweite Subnetz bietet hohe Verfügbarkeit.) –oder –Sie können die angehängte CloudFormation Vorlage in der [CloudFormation Konsole](https://console.aws.amazon.com/cloudformation) bereitstellen`amazon-vpc-subnets.yml`, um die Aufgaben in diesem Epos zu automatisieren. | Entwickler, Systemadministrator | 
| Fügen Sie ein Internet-Gateway hinzu. | Stellen Sie ein Internet-Gateway bereit und verbinden Sie es mit der VPC. | Entwickler, Systemadministrator | 
| Migrieren Sie eine bestehende IP. | Hängen Sie eine bestehende IP an die Elastic IP-Adresse an. Sie können eine Elastic IP-Adresse aus Ihrem Adresspool erstellen und verwenden. | Entwickler, Systemadministrator | 

### Stellen Sie einen SFTP-Server bereit
<a name="provision-an-sftp-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen SFTP-Server. | Öffnen Sie die [AWS Transfer Family -Konsole](https://console.aws.amazon.com/transfer/). Folgen Sie den Anweisungen unter [Erstellen eines mit dem Internet verbundenen Endpunkts für Ihren Server](https://docs.aws.amazon.com/transfer/latest/userguide/create-server-in-vpc.html#create-internet-facing-endpoint) in der AWS Transfer Family Dokumentation, um einen SFTP-Server mit einem mit dem Internet verbundenen Endpunkt zu erstellen. Wählen Sie als **Endpunkttyp** die Option **VPC Hosted** aus. Wählen Sie für **Access** die Option **Internet Facing** aus. Wählen Sie für **VPC** die VPC aus, die Sie im vorherigen Epos erstellt haben. –oder –Sie können die angehängte CloudFormation Vorlage in der [CloudFormation Konsole](https://console.aws.amazon.com/cloudformation) bereitstellen`amazon-sftp-server.yml`, um die Aufgaben in diesem Epic zu automatisieren. | Entwickler, Systemadministrator | 
| Migrieren Sie den Domainnamen. | Hängen Sie den vorhandenen Domainnamen an den benutzerdefinierten Hostnamen an. Wenn Sie einen neuen Domainnamen verwenden, verwenden Sie den **Amazon Route 53-DNS-Alias**. Wählen Sie für einen vorhandenen Domainnamen „**Anderes DNS**“. Weitere Informationen finden Sie in der AWS Transfer Family Dokumentation unter [Arbeiten mit benutzerdefinierten Hostnamen](https://docs.aws.amazon.com/transfer/latest/userguide/requirements-dns.html). | Entwickler, Systemadministrator | 
| Fügen Sie eine CloudWatch Logging-Rolle hinzu. | (Optional) Wenn Sie die CloudWatch Protokollierung aktivieren möchten, erstellen Sie eine `Transfer` Rolle mit den CloudWatch Logs-API-Vorgängen `logs:CreateLogGroup``logs:CreateLogStream`,` logs:DescribeLogStreams`, und`logs:PutLogEvents`. Weitere Informationen finden Sie CloudWatch in der AWS Transfer Family Dokumentation unter [Aktivität protokollieren mit](https://docs.aws.amazon.com/transfer/latest/userguide/monitoring.html#monitoring-enabling). | Entwickler, Systemadministrator | 
| Speichern und abschicken. | Wählen Sie **Speichern**. Wählen Sie für **Aktionen** die Option **Start** und warten Sie, bis der SFTP-Server mit dem Status **Online** erstellt wurde. | Entwickler, Systemadministrator | 

### Ordnen Sie dem SFTP-Server Elastic IP-Adressen zu
<a name="map-elastic-ip-addresses-to-the-sftp-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stoppen Sie den Server, damit Sie die Einstellungen ändern können. | Wählen Sie auf der [AWS Transfer Family Konsole](https://console.aws.amazon.com/transfer/) **Server** und dann den von Ihnen erstellten SFTP-Server aus. Wählen Sie für **Actions (Aktionen)** die Option **Stop (Stopp)**. Wenn der Server offline ist, wählen Sie **Bearbeiten**, um seine Einstellungen zu ändern. | Entwickler, Systemadministrator | 
| Wählen Sie Availability Zones und Subnetze. | Wählen Sie im Abschnitt **Availability Zones** die Availability Zones und Subnetze für Ihre VPC aus. | Entwickler, Systemadministrator | 
| Fügen Sie Elastic IP-Adressen hinzu. | Wählen Sie unter **IPv4 Adressen** eine Elastic IP-Adresse für jedes Subnetz aus und klicken Sie dann auf **Speichern**. | Entwickler, Systemadministrator | 

### Hinzufügen von Benutzern
<a name="add-users"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine IAM-Rolle, damit Benutzer auf den S3-Bucket zugreifen können. | Erstellen Sie eine IAM-Rolle für `Transfer`**** und fügen Sie ` s3:ListBucket`` s3:GetBucketLocation`, und `s3:PutObject` mit dem S3-Bucket-Namen als Ressource hinzu. Weitere Informationen finden Sie in der [Dokumentation unter Erstellen einer IAM-Rolle und -Richtlinie](https://docs.aws.amazon.com/transfer/latest/userguide/requirements-roles.html). AWS Transfer Family  –oder –Sie können die angehängte CloudFormation Vorlage in der [CloudFormation Konsole](https://console.aws.amazon.com/cloudformation) bereitstellen`amazon-sftp-customer.yml`, um die Aufgaben in diesem Epos zu automatisieren. | Entwickler, Systemadministrator | 
| Erstellen Sie einen S3-Bucket. | Erstellen Sie einen S3-Bucket für die Anwendung. | Entwickler, Systemadministrator | 
| Erstellen Sie optionale Ordner. | (Optional) Wenn Sie Dateien für Benutzer separat in bestimmten Amazon S3 S3-Ordnern speichern möchten, fügen Sie die entsprechenden Ordner hinzu. | Entwickler, Systemadministrator | 
| Erstellen Sie einen öffentlichen SSH-Schlüssel. | Informationen zum Erstellen eines SSH-Schlüsselpaars finden Sie in der Dokumentation unter [Generieren von SSH-Schlüsseln](https://docs.aws.amazon.com/transfer/latest/userguide/key-management.html#sshkeygen). AWS Transfer Family  | Entwickler, Systemadministrator | 
| Hinzufügen von Benutzern. | Wählen Sie auf der [AWS Transfer Family Konsole](https://console.aws.amazon.com/transfer/) **Server**, wählen Sie den von Ihnen erstellten SFTP-Server aus und klicken Sie dann auf **Benutzer hinzufügen**. Wählen Sie für **das Home-Verzeichnis** den S3-Bucket aus, den Sie erstellt haben. Geben Sie für den **öffentlichen SSH-Schlüssel** den öffentlichen Schlüsselteil des SSH-Schlüsselpaars an. **Fügen Sie Benutzer für den SFTP-Server hinzu und wählen Sie dann Hinzufügen.** | Entwickler, Systemadministrator | 

### Testen Sie den SFTP-Server
<a name="test-the-sftp-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Aktualisieren Sie die Sicherheitsgruppe. | Fügen Sie im Abschnitt **Sicherheitsgruppen** Ihres SFTP-Servers die IP Ihres Testcomputers hinzu, um SFTP-Zugriff zu erhalten. | Developer | 
| Verwenden Sie ein SFTP-Client-Hilfsprogramm, um den Server zu testen. | Testen Sie Dateiübertragungen mit einem beliebigen SFTP-Client-Hilfsprogramm. Eine Liste der Clients und Anweisungen finden Sie in der AWS Transfer Family Dokumentation unter [Übertragen von Dateien mit einem Client](https://docs.aws.amazon.com/transfer/latest/userguide/transfer-file.html). | Developer | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-sftp-server-to-aws-using-aws-transfer-for-sftp-resources"></a>
+ [AWS Transfer Family Benutzerhandbuch](https://docs.aws.amazon.com/transfer/latest/userguide/what-is-aws-transfer-for-sftp.html)
+ [Amazon S3 S3-Benutzerhandbuch](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html)
+ [Elastische IP-Adressen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/elastic-ip-addresses-eip.html) in der EC2 Amazon-Dokumentation

## Anlagen
<a name="attachments-ec0a905c-edef-48ba-9b5e-ea4a4040d320"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/ec0a905c-edef-48ba-9b5e-ea4a4040d320/attachments/attachment.zip)

# Migrieren Sie eine lokale VM EC2 mithilfe des AWS Application Migration Service zu Amazon
<a name="migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service"></a>

*Thanh Nguyen, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service-summary"></a>

Wenn es um die Migration von Anwendungen geht, können Unternehmen verschiedene Ansätze verfolgen, um die Server der Anwendung von der lokalen Umgebung in die Amazon Web Services (AWS) Cloud neu zu hosten (Lift and Shift). Eine Möglichkeit besteht darin, neue Amazon Elastic Compute Cloud (Amazon EC2) -Instances bereitzustellen und die Anwendung dann von Grund auf neu zu installieren und zu konfigurieren. Ein anderer Ansatz besteht darin, native Migrationsdienste von Drittanbietern oder AWS zu verwenden, um mehrere Server gleichzeitig zu migrieren.

Dieses Muster beschreibt die Schritte für die Migration einer unterstützten virtuellen Maschine (VM) zu einer EC2 Amazon-Instance in der AWS-Cloud mithilfe des AWS Application Migration Service. Sie können den in diesem Muster beschriebenen Ansatz verwenden, um eine oder mehrere virtuelle Maschinen manuell, nacheinander oder automatisch zu migrieren, indem Sie auf der Grundlage der beschriebenen Schritte entsprechende Automatisierungsskripts erstellen. 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto in einer der AWS-Regionen, die den Application Migration Service unterstützen
+ Netzwerkkonnektivität zwischen dem EC2 Quellserver und dem Zielserver über ein privates Netzwerk mithilfe von AWS Direct Connect oder einem virtuellen privaten Netzwerk (VPN) oder über das Internet

**Einschränkungen**
+ Die aktuelle Liste der unterstützten Regionen finden Sie unter [Unterstützte AWS-Regionen](https://docs.aws.amazon.com/mgn/latest/ug/supported-regions.html).
+ Eine Liste der unterstützten Betriebssysteme finden Sie in den [Abschnitten Unterstützte Betriebssysteme](https://docs.aws.amazon.com/mgn/latest/ug/Supported-Operating-Systems.html) und *Allgemein* von [Amazon EC2 FAQs](https://aws.amazon.com/ec2/faqs/).

## Architektur
<a name="migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service-architecture"></a>

**Quelltechnologie-Stack**
+ Ein physischer, virtueller oder in der Cloud gehosteter Server, auf dem ein von Amazon unterstütztes Betriebssystem ausgeführt wird EC2

**Zieltechnologie-Stack**
+ Eine EC2 Amazon-Instance, auf der dasselbe Betriebssystem wie die Quell-VM ausgeführt wird
+ Amazon Elastic Block Store (Amazon EBS)

**Quell- und Zielarchitektur**

Das folgende Diagramm zeigt die allgemeine Architektur und die Hauptkomponenten der Lösung. Im lokalen Rechenzentrum gibt es virtuelle Maschinen mit lokalen Festplatten. Auf AWS gibt es einen Staging-Bereich mit Replikationsservern und einen Bereich für migrierte Ressourcen mit EC2 Instances für Tests und Cutover. Beide Subnetze enthalten EBS-Volumes.

![\[Hauptkomponenten für die Migration einer unterstützten VM zu einer EC2 Amazon-Instanz in der AWS-Cloud.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/58c8bafd-9a6d-42d4-a5ce-08c4b9a286a3/images/f8396fad-7ee9-4f75-800f-e819f509e151.png)


1. Initialisieren Sie den AWS Application Migration Service.

1. Richten Sie die Serverkonfiguration und das Reporting für den Staging-Bereich ein, einschließlich der Ressourcen für den Staging-Bereich.

1. Installieren Sie Agenten auf Quellservern und verwenden Sie die kontinuierliche Datenreplikation auf Blockebene (komprimiert und verschlüsselt).

1. Automatisieren Sie Orchestrierung und Systemkonvertierung, um das Umstellungsfenster zu verkürzen.

**Netzwerk-Architektur**

Das folgende Diagramm zeigt die allgemeine Architektur und die Hauptkomponenten der Lösung aus Netzwerksicht, einschließlich der erforderlichen Protokolle und Ports für die Kommunikation zwischen den Hauptkomponenten im lokalen Rechenzentrum und auf AWS.

![\[Netzwerkkomponenten, einschließlich Protokolle und Ports für die Kommunikation zwischen Rechenzentrum und AWS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/58c8bafd-9a6d-42d4-a5ce-08c4b9a286a3/images/2f594daa-ddba-4841-8785-6067e8d83c2f.png)


## Tools
<a name="migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service-tools"></a>
+ Mit [AWS Application Migration Service](https://docs.aws.amazon.com/mgn/latest/ug/what-is-application-migration-service.html) können Sie Anwendungen ohne Änderungen *und mit minimalen Ausfallzeiten in die AWS-Cloud rehosten (Lift and Shift*).

## Best Practices
<a name="migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service-best-practices"></a>
+ Nehmen Sie den Quellserver nicht offline und führen Sie keinen Neustart durch, bis die Umstellung auf die EC2 Zielinstanz abgeschlossen ist.
+ Bieten Sie den Benutzern ausreichend Gelegenheit, Benutzerakzeptanztests (UAT) auf dem Zielserver durchzuführen, um Probleme zu identifizieren und zu lösen. Idealerweise sollten diese Tests mindestens zwei Wochen vor der Umstellung beginnen.
+ Überwachen Sie regelmäßig den Status der Serverreplikation auf der Application Migration Service-Konsole, um Probleme frühzeitig zu erkennen.
+ Verwenden Sie temporäre AWS Identity and Access Management (IAM) -Anmeldeinformationen für die Agenteninstallation anstelle von permanenten IAM-Benutzeranmeldedaten.

## Epen
<a name="migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service-epics"></a>

### AWS-Anmeldeinformationen generieren
<a name="generate-aws-credentials"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die IAM-Rolle AWS Replication Agent. | Melden Sie sich mit Administratorberechtigungen für das AWS-Konto an.Erstellen Sie auf der AWS Identity and Access Management (IAM) [-Konsole](https://console.aws.amazon.com/iam/) eine IAM-Rolle:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service.html) | AWS-Administrator, Migrationsingenieur | 
| Generieren Sie temporäre Sicherheitsnachweise. | Melden Sie sich auf einem Computer, auf dem AWS Command Line Interface (AWS CLI) installiert ist, mit Administratorrechten an. Oder melden Sie sich alternativ (innerhalb einer unterstützten AWS-Region) in der AWS-Managementkonsole mit Administratorberechtigungen für das AWS-Konto an und öffnen Sie AWS CloudShell.Generieren Sie temporäre Anmeldeinformationen mit dem folgenden Befehl und ersetzen Sie `<account-id>` ihn durch die AWS-Konto-ID.`aws sts assume-role --role-arn arn:aws:iam::<account-id>:role/MGN_Agent_Installation_Role --role-session-name mgn_installation_session_role`Kopieren Sie aus der Ausgabe des Befehls die Werte für `AccessKeyId` **`SecretAccessKey`**, und **`SessionToken`**. ****Bewahren Sie sie für den späteren Gebrauch an einem sicheren Ort auf.Diese temporären Anmeldeinformationen laufen nach einer Stunde ab. Wenn Sie nach einer Stunde Anmeldeinformationen benötigen, wiederholen Sie die vorherigen Schritte. | AWS-Administrator, Migrationsingenieur | 

### Initialisieren Sie den Application Migration Service und erstellen Sie die Vorlage für die Replikationseinstellungen
<a name="initialize-application-migration-service-and-create-the-replication-settings-template"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Initialisieren Sie den Dienst. | Melden Sie sich auf der Konsole mit Administratorberechtigungen für das AWS-Konto an.Wählen Sie **Application Migration Service** und dann **Get started** aus. | AWS-Administrator, Migrationsingenieur | 
| Erstellen und konfigurieren Sie die Vorlage für die Replikationseinstellungen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service.html)Der Application Migration Service erstellt automatisch alle IAM-Rollen, die für die Datenreplikation und den Start migrierter Server erforderlich sind. | AWS-Administrator, Migrationsingenieur | 

### Installieren Sie AWS Replication Agents auf Quellcomputern
<a name="install-aws-replication-agents-on-source-machines"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Halten Sie die erforderlichen AWS-Anmeldeinformationen bereit. | Wenn Sie die Installationsdatei auf einem Quellserver ausführen, müssen Sie die temporären Anmeldeinformationen eingeben, die Sie zuvor generiert haben, einschließlich `AccessKeyId``SecretAccessKey`, und`SessionToken`. | Migrationsingenieur, AWS-Administrator | 
| Installieren Sie den Agenten für Linux-Server. | Kopieren Sie den Installationsbefehl, melden Sie sich bei Ihren Quellservern an und führen Sie das Installationsprogramm aus. Eine ausführliche Anleitung finden Sie in der [AWS-Dokumentation](https://docs.aws.amazon.com/mgn/latest/ug/linux-agent.html). | AWS-Administrator, Migrationsingenieur | 
| Installieren Sie den Agenten für Windows-Server. | Laden Sie die Installationsdatei auf jeden Server herunter und führen Sie dann den Installationsbefehl aus. Eine ausführliche Anleitung finden Sie in der [AWS-Dokumentation](https://docs.aws.amazon.com/mgn/latest/ug/windows-agent.html). | AWS-Administrator, Migrationsingenieur | 
| Warten Sie, bis die erste Datenreplikation abgeschlossen ist. | Wenn der Agent installiert wurde, wird der Quellserver auf der Application Migration Service-Konsole im Abschnitt **Quellserver** angezeigt. Warten Sie, bis der Server die erste Datenreplikation durchführt. | AWS-Administrator, Migrationsingenieur | 

### Starteinstellungen konfigurieren
<a name="configure-launch-settings"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Geben Sie die Serverdetails an. | Wählen Sie in der Application Migration Service-Konsole den Abschnitt **Quellserver** und dann einen Servernamen aus der Liste aus, um auf die Serverdetails zuzugreifen. | AWS-Administrator, Migrationsingenieur | 
| Konfigurieren Sie die Starteinstellungen.  | Wählen Sie die Registerkarte **Starteinstellungen**. Sie können eine Vielzahl von Einstellungen konfigurieren, darunter allgemeine Starteinstellungen und EC2 Startvorlageneinstellungen. Eine ausführliche Anleitung finden Sie in der [AWS-Dokumentation](https://docs.aws.amazon.com/mgn/latest/ug/launch-settings.html). | AWS-Administrator, Migrationsingenieur | 

### Führen Sie einen Test durch
<a name="perform-a-test"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Testen Sie die Quellserver. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service.html)Die Server werden gestartet. | AWS-Administrator, Migrationsingenieur | 
| Stellen Sie sicher, dass der Test erfolgreich abgeschlossen wurde. | Nachdem der Testserver vollständig gestartet wurde, wird im **Warnmeldungsstatus** auf der Seite für jeden Server die **Meldung Gestartet** angezeigt. | AWS-Administrator, Migrationsingenieur | 
| Testen Sie den Server. | Führen Sie Tests auf dem Testserver durch, um sicherzustellen, dass er wie erwartet funktioniert. | AWS-Administrator, Migrationsingenieur | 

### Planen und führen Sie eine Umstellung durch
<a name="schedule-and-perform-a-cutover"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Planen Sie ein Zeitfenster für die Umstellung ein. | Vereinbaren Sie mit den zuständigen Teams einen angemessenen Zeitrahmen für die Umstellung. | AWS-Administrator, Migrationsingenieur | 
| Führen Sie die Umstellung durch. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service.html)Der **Migrationszyklus** des Quellservers wird zu „Umstellung **läuft**“ geändert. | AWS-Administrator, Migrationsingenieur | 
| Stellen Sie sicher, dass die Umstellung erfolgreich abgeschlossen wurde. | Nachdem die Übernahmeserver vollständig gestartet wurden, zeigt der Status **Alerts** auf der Seite **Quellserver** für jeden Server den Status **Gestartet** an. | AWS-Administrator, Migrationsingenieur | 
| Testen Sie den Server. | Führen Sie Tests mit dem Cutover-Server durch, um sicherzustellen, dass er wie erwartet funktioniert. | AWS-Administrator, Migrationsingenieur | 
| Schließen Sie die Umstellung ab. | Wählen Sie **Test und Übernahme und** anschließend Übernahme **abschließen aus, um den Migrationsprozess abzuschließen**. | AWS-Administrator, Migrationsingenieur | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-vm-to-amazon-ec2-by-using-aws-application-migration-service-resources"></a>
+ [AWS Application Migration Service](https://aws.amazon.com/application-migration-service/)
+ [AWS Application Migration Service — Benutzerhandbuch](https://docs.aws.amazon.com/mgn/latest/ug/what-is-application-migration-service.html)

# Migrieren Sie kleine Datenmengen von der lokalen Infrastruktur zu Amazon S3 mit AWS SFTP
<a name="migrate-small-sets-of-data-from-on-premises-to-amazon-s3-using-aws-sftp"></a>

*Charles Gibson und Sergiy Shevchenko, Amazon Web Services*

## Zusammenfassung
<a name="migrate-small-sets-of-data-from-on-premises-to-amazon-s3-using-aws-sftp-summary"></a>

Dieses Muster beschreibt, wie kleine Datenmengen (5 TB oder weniger) mithilfe AWS Transfer for SFTP von () von lokalen Rechenzentren zu Amazon Simple Storage Service (Amazon S3) migriert werden.AWS SFTP Bei den Daten kann es sich entweder um Datenbank-Dumps oder um Flatfiles handeln.

## Voraussetzungen und Einschränkungen
<a name="migrate-small-sets-of-data-from-on-premises-to-amazon-s3-using-aws-sftp-prereqs"></a>

**Voraussetzungen**
+ Ein aktiver AWS-Konto
+ Eine AWS Direct Connect Verbindung zwischen Ihrem Rechenzentrum und AWS

**Einschränkungen**
+ Die Datendateien müssen weniger als 5 TB groß sein. Für Dateien über 5 TB können Sie einen mehrteiligen Upload auf Amazon S3 durchführen oder eine andere Datenübertragungsmethode wählen. 

## Architektur
<a name="migrate-small-sets-of-data-from-on-premises-to-amazon-s3-using-aws-sftp-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale Flatfiles oder Datenbank-Dumps

**Zieltechnologie-Stack**
+ Amazon S3

**Quell- und Zielarchitektur**

![\[Diagram showing data flow from on-premises servers to AWS Cloud services via Direct Connect and VPN.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/a9c016ff-3e68-4714-ac51-46cb4727397a/images/5c5bb9ea-d552-44e8-8d0d-df341f84f55d.png)


## Tools
<a name="migrate-small-sets-of-data-from-on-premises-to-amazon-s3-using-aws-sftp-tools"></a>
+ [AWS SFTP](https://docs.aws.amazon.com/transfer/latest/userguide/what-is-aws-transfer-for-sftp.html)— Ermöglicht die direkte Übertragung von Dateien in und aus Amazon S3 mithilfe des Secure File Transfer Protocol (SFTP).
+ [AWS Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html)— Stellt eine dedizierte Netzwerkverbindung von Ihren lokalen Rechenzentren zu her. AWS
+ [VPC-Endpunkte](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) — Ermöglicht es Ihnen, eine VPC privat mit unterstützten AWS-Services und VPC-Endpunktdiensten zu verbinden, die AWS PrivateLink ohne Internet-Gateway, NAT-Gerät (Network Address Translation), VPN-Verbindung oder Verbindung betrieben werden. Direct Connect Instances in einer VPC benötigen keine öffentlichen IP-Adressen, um mit Ressourcen im Service zu kommunizieren.

## Epen
<a name="migrate-small-sets-of-data-from-on-premises-to-amazon-s3-using-aws-sftp-epics"></a>

### Bereite dich auf die Migration vor
<a name="prepare-for-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Dokumentieren Sie die aktuellen SFTP-Anforderungen. |  | Inhaber der Anwendung, SA | 
| Identifizieren Sie die Authentifizierungsanforderungen. | Zu den Anforderungen können eine schlüsselbasierte Authentifizierung, ein Benutzername oder ein Passwort oder ein Identitätsanbieter (IdP) gehören. | Inhaber der Anwendung, SA | 
| Identifizieren Sie die Anforderungen an die Anwendungsintegration. |  | Besitzer der Anwendung | 
| Identifizieren Sie die Benutzer, die den Dienst benötigen. |  | Besitzer der Anwendung | 
| Ermitteln Sie den DNS-Namen für den SFTP-Serverendpunkt. |  | Netzwerk | 
| Ermitteln Sie die Backup-Strategie. |  | SA, DBA (wenn Daten übertragen werden)  | 
| Identifizieren Sie die Strategie für die Anwendungsmigration oder -umstellung. |  | Inhaber der Anwendung, SA, DBA | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine oder mehrere virtuelle private Clouds (VPCs) und Subnetze in Ihrem AWS-Konto. |  | Inhaber der Anwendung, AMS | 
| Erstellen Sie die Sicherheitsgruppen und die Network Access Control List (ACL). |  | Sicherheit, Netzwerke, AMS | 
| Erstellen Sie den Amazon S3 S3-Bucket. |  | Inhaber der Anwendung, AMS | 
| Erstellen Sie die AWS Identity and Access Management (IAM-) Rolle. | Erstellen Sie eine IAM-Richtlinie, die die Berechtigungen für den AWS SFTP Zugriff auf Ihren Amazon S3 S3-Bucket enthält. Diese IAM-Richtlinie bestimmt, welche Zugriffsebene Sie SFTP-Benutzern gewähren. Erstellen Sie eine weitere IAM-Richtlinie, mit der Sie eine Vertrauensbeziehung aufbauen möchten. AWS SFTP | Sicherheit, AMS | 
| Ordnen Sie eine registrierte Domain zu (optional). | Wenn Sie eine eigene registrierte Domain haben, können Sie diese mit dem SFTP-Server verknüpfen. Sie können SFTP-Verkehr von einer Domain oder von einer Subdomain an Ihren SFTP-Serverendpunkt weiterleiten. | Netzwerke, AMS | 
| Erstellen Sie einen SFTP-Server. | Geben Sie den Identitätsanbietertyp an, den der Dienst zur Authentifizierung Ihrer Benutzer verwendet. | Inhaber der Anwendung, AMS | 
| Öffnen Sie einen SFTP-Client. | Öffnen Sie einen SFTP-Client und konfigurieren Sie die Verbindung für die Verwendung des SFTP-Endpunkthosts. AWS SFTP unterstützt jeden Standard-SFTP-Client. Zu den häufig verwendeten SFTP-Clients gehören OpenSSH, WinSCP, Cyberduck und. FileZilla Sie können den Hostnamen des SFTP-Servers von der Konsole abrufen. AWS SFTP  | Besitzer der Anwendung, AMS | 

### Planen und testen
<a name="plan-and-test"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Planen Sie die Anwendungsmigration. | Planen Sie alle erforderlichen Änderungen an der Anwendungskonfiguration ein, legen Sie das Migrationsdatum fest und legen Sie den Testplan fest. | Inhaber der Anwendung, AMS | 
| Testen Sie die Infrastruktur. | Testen Sie in einer Umgebung außerhalb der Produktionsumgebung. | Inhaber der Anwendung, AMS | 

## Zugehörige Ressourcen
<a name="migrate-small-sets-of-data-from-on-premises-to-amazon-s3-using-aws-sftp-resources"></a>

**Referenzen**
+ [AWS Transfer for SFTP Benutzerhandbuch](https://docs.aws.amazon.com/transfer/latest/userguide/what-is-aws-transfer-for-sftp.html)
+ [AWS Direct Connect Ressourcen](https://aws.amazon.com/directconnect/resources/) 
+ [VPC-Endpunkte](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html)

**Tutorials und Videos**
+ [AWS Transfer for SFTP (Video)](https://www.youtube.com/watch?v=wcnGez5PP1E)
+ [AWS Transfer for SFTP benutzerhandbuch](https://docs.aws.amazon.com/transfer/latest/userguide/what-is-aws-transfer-for-sftp.html)
+ [AWS SA Whiteboarding - Direct Connect (Video)](https://www.youtube.com/watch?v=uP68iqyuqTg)

# Migrieren Sie eine lokale Oracle-Datenbank zu Oracle auf Amazon EC2
<a name="migrate-an-on-premises-oracle-database-to-oracle-on-amazon-ec2"></a>

*Baji Shaik und Pankaj Choudhary, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-oracle-database-to-oracle-on-amazon-ec2-summary"></a>

Dieses Muster führt Sie durch die Schritte zur Migration einer lokalen Oracle-Datenbank zu Oracle auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance. Es beschreibt zwei Optionen für die Migration: die Verwendung von AWS Data Migration Service (AWS DMS) oder die Verwendung nativer Oracle-Tools wie RMAN, Data Pump Import/Export, transportable Tablespaces und Oracle. GoldenGate 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-oracle-database-to-oracle-on-amazon-ec2-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Oracle-Quelldatenbank in einem lokalen Rechenzentrum

**Einschränkungen**
+ Das Zielbetriebssystem (OS) muss von Amazon unterstützt werden EC2. Eine vollständige Liste der unterstützten Systeme finden Sie [bei Amazon EC2 FAQs](https://aws.amazon.com/ec2/faqs/).

**Produktversionen**
+ Oracle-Versionen 10.2 und höher (für Versionen 10.x), 11g und bis zu 12.2 und 18c für die Editionen Enterprise, Standard, Standard One und Standard Two. Die aktuelle Liste der von AWS DMS unterstützten Versionen finden Sie unter „Lokale Datenbanken und EC2 Amazon-Instanzdatenbanken“ unter [Quellen für die Datenmigration](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.html) in der AWS DMS-Dokumentation.  

## Architektur
<a name="migrate-an-on-premises-oracle-database-to-oracle-on-amazon-ec2-architecture"></a>

**Quelltechnologie-Stack**
+ Eine lokale Oracle-Datenbank

**Zieltechnologie-Stack**
+ Eine Oracle-Datenbank-Instance auf Amazon EC2

**Zielarchitektur**

![\[Einrichtung der Replikation für eine Oracle-Datenbank auf Amazon. EC2\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/66c98694-6580-4ffb-9f16-84de58cf8b07/images/386d5b14-8633-4ecc-98fb-59872de99d41.png)


**Architektur für die Datenmigration**

*Verwenden von AWS DMS:*

![\[Migration einer lokalen Oracle-Datenbank zu Amazon EC2 mit AWS DMS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/66c98694-6580-4ffb-9f16-84de58cf8b07/images/14954066-d22b-486a-a432-265296752878.png)


*Verwendung nativer Oracle-Tools:*

![\[Migration einer lokalen Oracle-Datenbank zu Amazon EC2 mit Oracle-Tools.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/66c98694-6580-4ffb-9f16-84de58cf8b07/images/82ba5fcb-8640-45fa-b432-2702dedc0774.png)


## Tools
<a name="migrate-an-on-premises-oracle-database-to-oracle-on-amazon-ec2-tools"></a>
+ **AWS DMS —** [AWS Database Migration Services](https://docs.aws.amazon.com/dms/index.html) (AWS DMS) unterstützt verschiedene Arten von Quell- und Zieldatenbanken. Informationen zu den unterstützten Datenbankversionen und -editionen finden Sie unter [Using an Oracle Database as a Source for AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html). Wir empfehlen Ihnen, die neueste Version von AWS DMS zu verwenden, um die umfassendste Version von Versionen und Funktionen zu erhalten.  
+ **Systemeigene Oracle-Tools —** RMAN, Import/Export von Data Pump, transportable Tablespaces, Oracle GoldenGate                                                         

## Epen
<a name="migrate-an-on-premises-oracle-database-to-oracle-on-amazon-ec2-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
|  Überprüfen Sie die Versionen der Quell- und Zieldatenbanken. |  | DBA | 
|  Identifizieren Sie die Version des Zielbetriebssystems. |  | DBA, SysAdmin | 
| Identifizieren Sie die Hardwareanforderungen für die Zielserverinstanz auf der Grundlage der Oracle-Kompatibilitätsliste und der Kapazitätsanforderungen. |  | DBA, SysAdmin | 
| Identifizieren Sie die Speicheranforderungen (Speichertyp und Kapazität). |  | DBA, SysAdmin | 
| Identifizieren Sie die Netzwerkanforderungen (Latenz und Bandbreite). |  | DBA, SysAdmin | 
| Wählen Sie den richtigen Instanztyp auf der Grundlage von Kapazität, Speicherfunktionen und Netzwerkfunktionen aus. |  | DBA, SysAdmin | 
| Identifizieren Sie die Anforderungen an die network/host Zugriffssicherheit für Quell- und Zieldatenbanken. |  | DBA, SysAdmin | 
| Identifizieren Sie eine Liste der Betriebssystembenutzer, die für die Oracle-Softwareinstallation erforderlich sind. |  | DBA, SysAdmin | 
| Laden Sie das AWS Schema Conversion Tool (AWS SCT) und die Treiber herunter. |  | DBA | 
| Erstellen Sie ein AWS SCT-Projekt für den Workload und stellen Sie eine Verbindung zur Quelldatenbank her. |  | DBA | 
| Generieren Sie SQL-Dateien für die Erstellung von Objekten (Tabellen, Indizes, Sequenzen usw.). |  | DBA | 
| Legen Sie eine Backup-Strategie fest. |  | DBA, SysAdmin  | 
| Ermitteln Sie die Verfügbarkeitsanforderungen. |  | DBA | 
| Identifizieren Sie die Strategie zur Anwendungsmigration/zum Umstieg. |  | DBA, Besitzer der App SysAdmin | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Virtual Private Cloud (VPC) und Subnetze in Ihrem AWS-Konto. |  | SysAdmin | 
| Erstellen Sie Sicherheitsgruppen und Netzwerkzugriffskontrolllisten ()ACLs. |  | SysAdmin | 
| Konfigurieren und starten Sie die EC2 Instanz. |  | SysAdmin | 

### Installieren Sie die Oracle-Software
<a name="install-the-oracle-software"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Betriebssystembenutzer und -gruppen, die für die Oracle-Software erforderlich sind. |  | DBA, SysAdmin | 
| Laden Sie die erforderliche Version der Oracle-Software herunter. |  |  | 
| Installieren Sie die Oracle-Software auf der EC2 Instanz. |  | DBA, SysAdmin | 
| Erstellen Sie Objekte wie Tabellen, Primärschlüssel, Ansichten und Sequenzen mithilfe der von AWS SCT generierten Skripts. |  | DBA | 

### Daten migrieren — Option 1
<a name="migrate-data---option-1"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwenden Sie native Oracle-Tools oder Tools von Drittanbietern, um Datenbankobjekte und Daten zu migrieren. | Zu den Oracle-Tools gehören der Import/Export von Data Pump, RMAN, transportable Tablespaces und. GoldenGate | DBA | 

### Daten migrieren — Option 2
<a name="migrate-data---option-2"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Ermitteln Sie die Migrationsmethode. |  | DBA | 
| Erstellen Sie eine Replikationsinstanz in der AWS DMS-Konsole. |  | DBA | 
| Erstellen Sie Quell- und Zielendpunkte. |  | DBA | 
| Erstellen Sie eine Replikationsaufgabe. |  | DBA | 
| Aktivieren Sie Change Data Capture (CDC), um Änderungen für eine kontinuierliche Replikation zu erfassen. |  | DBA | 
| Führen Sie die Replikationsaufgabe aus und überwachen Sie die Protokolle. |  | DBA | 
| Erstellen Sie sekundäre Objekte wie Indizes und Fremdschlüssel, wenn der vollständige Ladevorgang abgeschlossen ist. |  | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der Strategie zur Anwendungsmigration. |  | DBA SysAdmin, Besitzer der App | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der Strategie zur Umstellung und Umstellung der Anwendung. |  | DBA, Besitzer der App SysAdmin | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie temporäre AWS Secrets Manager Manager-Ressourcen herunter. |  | DBA, SysAdmin | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA SysAdmin, Besitzer der App | 
| Erfassen Sie Kennzahlen zum Zeitpunkt der Migration, zum prozentualen Anteil manueller Daten im Vergleich zum Tool, zu Kosteneinsparungen usw. |  | DBA SysAdmin, Besitzer der App | 
| Schließen Sie das Projekt ab und geben Sie Feedback. |  |  | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-oracle-database-to-oracle-on-amazon-ec2-resources"></a>

**Referenzen**
+ [Strategien für die Migration von Oracle-Datenbanken zu AWS](https://docs.aws.amazon.com/whitepapers/latest/strategies-migrating-oracle-db-to-aws/strategies-migrating-oracle-db-to-aws.html) 
+ [Migration von Oracle-Datenbanken in die AWS-Cloud](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/)
+ [ EC2 Amazon-Webseite](https://aws.amazon.com/ec2/)
+ [AWS DMS-Webseite](https://aws.amazon.com/dms/)
+ [AWS DMS-Blogbeiträge](https://aws.amazon.com/blogs/database/category/dms/)
+ [ EC2 Amazon-Preisgestaltung](https://aws.amazon.com/ec2/pricing/)
+ [Lizenzierung von Oracle-Software in der Cloud-Computing-Umgebung](http://www.oracle.com/us/corporate/pricing/cloud-licensing-070579.pdf)

**Tutorials und Videos**
+ [Erste Schritte mit Amazon EC2](https://aws.amazon.com/ec2/getting-started/)
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Einführung in Amazon EC2 — Elastic Cloud Server und Hosting mit AWS (Video)](https://www.youtube.com/watch?v=TsRBftzZsQo) 

# Migrieren Sie eine lokale Oracle-Datenbank mithilfe EC2 von Oracle Data Pump zu Amazon
<a name="migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump"></a>

*Navakanth Talluri, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump-summary"></a>

Bei der Migration von Datenbanken müssen Sie Faktoren wie die Quell- und Zieldatenbank-Engines und Versionen, Migrationstools und -services sowie akzeptable Ausfallzeiten berücksichtigen. Wenn Sie eine lokale Oracle-Datenbank zu Amazon Elastic Compute Cloud (Amazon EC2) migrieren, können Sie Oracle-Tools wie Oracle Data Pump und Oracle Recovery Manager (RMAN) verwenden. Weitere Informationen zu Strategien finden Sie unter [Migration von Oracle-Datenbanken in die AWS-Cloud](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/welcome.html).

Oracle Data Pump hilft Ihnen dabei, die logische, konsistente Sicherung der Datenbank zu extrahieren und sie auf der EC2 Zielinstanz wiederherzustellen. Dieses Muster beschreibt, wie eine lokale Oracle-Datenbank mithilfe von Oracle Data Pump und dem `NETWORK_LINK` Parameter mit minimaler Ausfallzeit auf eine EC2 Instanz migriert wird. Der `NETWORK_LINK` Parameter startet einen Import über einen Datenbank-Link. Der Oracle Data Pump Import (impdp) -Client auf der EC2 Zielinstanz stellt eine Verbindung mit der Quelldatenbank her, ruft Daten von dieser ab und schreibt die Daten direkt in die Datenbank auf der Zielinstanz. In dieser Lösung werden keine Backup- oder *Dump-Dateien* verwendet.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto.
+ Eine lokale Oracle-Datenbank, die:
  + Ist keine Oracle Real Application Clusters (RAC) -Datenbank
  + Ist keine Oracle Automatic Storage Management (Oracle ASM) -Datenbank
  + Befindet sich im Lese-/Schreibmodus.
+ Sie haben einen AWS Direct Connect Connect-Link zwischen Ihrem lokalen Rechenzentrum und AWS erstellt. Weitere Informationen finden Sie unter [Verbindung erstellen](https://docs.aws.amazon.com/directconnect/latest/UserGuide/create-connection.html) (Direct Connect-Dokumentation).

**Produktversionen**
+ Oracle Database 10g Version 1 (10.1) und höher

## Architektur
<a name="migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump-architecture"></a>

**Quelltechnologie-Stack**
+ Ein eigenständiger Oracle-Datenbankserver (ohne RAC und ohne ASM) in einem lokalen Rechenzentrum

**Zieltechnologie-Stack**
+ Eine Oracle-Datenbank, die auf Amazon läuft EC2

**Zielarchitektur**

Die [Zuverlässigkeitssäule](https://docs.aws.amazon.com/wellarchitected/latest/reliability-pillar/welcome.html) des AWS Well-Architected Framework empfiehlt die Erstellung von Datensicherungen, um eine hohe Verfügbarkeit und Ausfallsicherheit zu gewährleisten. Weitere Informationen finden Sie unter [Architecting for High Availability](https://docs.aws.amazon.com/whitepapers/latest/oracle-database-aws-best-practices/architecting-for-high-availability.html#amazon-ec2) in *Best Practices for Running Oracle Database on AWS*. Dieses Muster richtet mithilfe von Oracle Active Data Guard Primär- und Standby-Datenbanken auf EC2 Instances ein. Für eine hohe Verfügbarkeit sollten sich die EC2 Instances in verschiedenen Availability Zones befinden. Die Availability Zones können sich jedoch in derselben AWS-Region oder in verschiedenen AWS-Regionen befinden.

Active Data Guard bietet schreibgeschützten Zugriff auf eine physische Standby-Datenbank und wendet fortlaufend Redo-Änderungen von der Primärdatenbank aus an. Basierend auf Ihrem Recovery Point Objective (RPO) und Recovery Time Objective (RTO) können Sie zwischen synchronen und asynchronen Redo-Transport-Optionen wählen.

Die folgende Abbildung zeigt die Zielarchitektur, wenn sich die Primär- und EC2 Standby-Instances in unterschiedlichen AWS-Regionen befinden.

![\[Anwendung stellt eine Verbindung zur neuen Datenbank auf der primären EC2 Instance her\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/bdd49395-2f99-43e2-ad1d-a1d09d90fb58/images/37fcd4dc-5516-416b-a280-0c5f002880de.png)


**Architektur der Datenmigration**

Nachdem Sie die Zielarchitektur eingerichtet haben, verwenden Sie Oracle Data Pump, um die lokalen Daten und Schemas auf die primäre EC2 Instanz zu migrieren. Während der Umstellung können Anwendungen nicht auf die lokale Datenbank oder die Zieldatenbank zugreifen. Sie fahren diese Anwendungen herunter, bis sie mit der neuen Zieldatenbank auf der primären EC2 Instanz verbunden werden können.

Die folgende Abbildung zeigt die Architektur während der Datenmigration. In dieser Beispielarchitektur befinden sich die Primär- und EC2 Standby-Instances in verschiedenen AWS-Regionen.

![\[Die Quell-DB stellt eine Verbindung zur Ziel-DB her. Anwendungen werden von Quelle und Ziel getrennt DBs\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/bdd49395-2f99-43e2-ad1d-a1d09d90fb58/images/c58b669b-b11f-4d78-8911-c07b81b7c6a0.png)


## Tools
<a name="migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump-tools"></a>

**AWS-Services**
+ [AWS Direct Connect](https://aws.amazon.com/directconnect/) verbindet Ihr internes Netzwerk über ein Standard-Ethernet-Glasfaserkabel mit einem Direct Connect-Standort. Mit dieser Verbindung können Sie virtuelle Schnittstellen direkt zu öffentlichen AWS-Services erstellen und dabei Internetdienstanbieter in Ihrem Netzwerkpfad umgehen.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/) bietet skalierbare Rechenkapazität in der AWS-Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.

**Andere Tools und Dienste**
+ [Oracle Active Data Guard](https://docs.oracle.com/en/database/oracle/oracle-database/21/sbydb/introduction-to-oracle-data-guard-concepts.html#GUID-5E73667D-4A56-445E-911F-1E99092DD8D7) unterstützt Sie bei der Erstellung, Wartung, Verwaltung und Überwachung von Standby-Datenbanken.
+ [Oracle Data Pump](https://www.oracle.com/technetwork/documentation/data-pump-overview-084963.html) hilft Ihnen, Daten und Metadaten mit hoher Geschwindigkeit von einer Datenbank in eine andere zu verschieben.

## Best Practices
<a name="migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump-best-practices"></a>
+ [Bewährte Methoden für die Ausführung von Oracle Database in AWS](https://docs.aws.amazon.com/whitepapers/latest/oracle-database-aws-best-practices/architecting-for-security-and-performance.html)
+ [Daten mit NETWORK\$1LINK importieren](https://docs.oracle.com/database/121/SUTIL/GUID-23E58D59-A477-4A87-BD0E-C82447581D0A.htm#SUTIL856)

## Epen
<a name="migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump-epics"></a>

### Richten Sie die EC2 Instanzen auf AWS ein
<a name="set-up-the-ec2-instances-on-aws"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie die Quellhardwarekonfiguration für den lokalen Host und die Kernel-Parameter. | Überprüfen Sie die lokale Konfiguration, einschließlich Speichergröße, input/output Operationen pro Sekunde (IOPS) und CPU. Dies ist wichtig für die Oracle-Lizenzierung, die auf CPU-Kernen basiert. | DBA, SysAdmin | 
| Erstellen Sie die Infrastruktur auf AWS. | Erstellen Sie die virtuellen privaten Clouds (VPCs), privaten Subnetze, Sicherheitsgruppen, Netzwerkzugriffskontrolllisten (ACLs), Routing-Tabellen und das Internet-Gateway. Weitere Informationen finden Sie hier:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump.html) | DBA, AWS-Systemadministrator | 
| Richten Sie die EC2 Instanzen mithilfe von Active Data Guard ein. | Konfigurieren Sie EC2 AWS-Instanzen mithilfe einer Active Data Guard-Konfiguration, wie im [AWS Well-Architected Framework](https://docs.aws.amazon.com/wellarchitected/latest/framework/welcome.html) beschrieben. Die Version von Oracle Database auf der EC2 Instance kann sich von der lokalen Version unterscheiden, da dieses Muster logische Backups verwendet. Beachten Sie Folgendes:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump.html) Weitere Informationen finden Sie unter:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump.html) | DBA, AWS-Systemadministrator | 

### Migrieren Sie die Datenbank zu Amazon EC2
<a name="migrate-the-database-to-amazon-ec2"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie von der Instanz aus einen DBLink zur lokalen Datenbank. EC2  | Erstellen Sie einen Datenbank-Link (dblink) zwischen der Oracle-Datenbank auf der EC2 Instanz und der lokalen Oracle-Datenbank. Weitere Informationen finden Sie unter [Verwenden des Netzwerk-Link-Imports zum Verschieben von Daten](https://docs.oracle.com/database/121/SUTIL/GUID-3E1D4B46-E856-4ABE-ACC5-977A898BB0F1.htm#SUTIL806) (Oracle-Dokumentation). | DBA | 
| Überprüfen Sie die Verbindung zwischen der EC2 Instanz und dem lokalen Host. | Verwenden Sie den DBlink, um zu überprüfen, ob die Verbindung zwischen der EC2 Instanz und der lokalen Datenbank funktioniert. Anweisungen finden Sie unter [CREATE DATABASE LINK](https://docs.oracle.com/cd/B19306_01/server.102/b14200/statements_5005.htm) (Oracle-Dokumentation). | DBA | 
| Beenden Sie alle Anwendungen, die mit der lokalen Datenbank verbunden sind. | Nachdem die Datenbankausfallzeit genehmigt wurde, fahren Sie alle Anwendungen und abhängigen Jobs herunter, die eine Verbindung zu Ihrer lokalen Datenbank herstellen. Sie können dies entweder direkt von der Anwendung aus oder mithilfe von Cron aus der Datenbank tun. Weitere Informationen finden Sie unter [Verwenden des Crontab-Dienstprogramms zur Planung von Aufgaben unter Oracle Linux](https://docs.oracle.com/en/learn/oracle-linux-crontab/index.html). | DBA, App-Entwickler | 
| Planen Sie den Datenmigrationsjob.  | Verwenden Sie auf dem Zielhost den Befehl, `impdb` um den Data Pump-Import zu planen. Dadurch wird die Zieldatenbank mit dem lokalen Host verbunden und die Datenmigration gestartet. Weitere Informationen finden Sie unter [Data Pump Import](https://docs.oracle.com/database/121/SUTIL/GUID-D11E340E-14C6-43B8-AB09-6335F0C1F71B.htm#SUTIL300) und [NETWORK\$1LINK](https://docs.oracle.com/database/121/SUTIL/GUID-0871E56B-07EB-43B3-91DA-D1F457CF6182.htm#SUTIL919) (Oracle-Dokumentation). | DBA | 
| Validieren Sie die Datenmigration. | Die Datenvalidierung ist ein entscheidender Schritt. Für die Datenvalidierung können Sie benutzerdefinierte Tools oder Oracle-Tools verwenden, z. B. eine Kombination aus DBLink- und SQL-Abfragen. | DBA | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Versetzen Sie die Quelldatenbank in den schreibgeschützten Modus. | Vergewissern Sie sich, dass die Anwendung heruntergefahren ist und keine Änderungen an der Quelldatenbank vorgenommen wurden. Öffnen Sie die Quelldatenbank im schreibgeschützten Modus. Auf diese Weise können Sie offene Transaktionen vermeiden. Weitere Informationen finden Sie unter `ALTER DATABASE` [SQL-Anweisungen](https://docs.oracle.com/database/121/SQLRF/statements_1006.htm#i2135540) (Oracle-Dokumentation). | DBA, DevOps Ingenieur, App-Entwickler | 
| Überprüfen Sie die Objektanzahl und die Daten. | Verwenden Sie benutzerdefinierte Tools oder Oracle-Tools, z. B. eine Kombination aus DBLink- und SQL-Abfragen, um die Daten und das Objekt zu validieren. | DBA, App-Entwickler | 
| Connect die Anwendungen mit der Datenbank auf der primären EC2 Instanz. | Ändern Sie das Verbindungsattribut der Anwendung so, dass es auf die neue Datenbank verweist, die Sie auf der primären EC2 Instanz erstellt haben. | DBA, App-Entwickler | 
| Überprüfen Sie die Anwendungsleistung. | Starten Sie die Anwendung. Überprüfen Sie die Funktionalität und Leistung der Anwendung mithilfe von [Automated Workload Repository](https://docs.oracle.com/database/121/RACAD/GUID-C3CD2DCE-38BD-46BA-BC32-7A28CAC9A7FD.htm#RACAD951) (Oracle-Dokumentation). | App-Entwickler, DevOps Ingenieur, DBA | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump-resources"></a>

**AWS-Referenzen**
+ [Migration von Oracle-Datenbanken in die AWS-Cloud](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/welcome.html)
+ [Amazon EC2 für Oracle](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/ec2-oracle.html)
+ [Migration umfangreicher Oracle-Datenbanken zu AWS für plattformübergreifende Umgebungen](https://docs.aws.amazon.com/prescriptive-guidance/latest/migrate-bulky-oracle-databases/welcome.html)
+ [VPCs und Subnetze](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_Subnets.html)
+ [Tutorial: Eine VPC zur Verwendung mit einer Datenbank-Instance erstellen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Tutorials.WebServerDB.CreateVPC.html)

**Oracle-Referenzen**
+ [Oracle Data Guard-Konfigurationen](https://docs.oracle.com/en/database/oracle/oracle-database/21/sbydb/introduction-to-oracle-data-guard-concepts.html#GUID-AB9DF863-2C7E-4767-81F2-56AD0FA30B49)
+ [Import von Datenpumpen](https://docs.oracle.com/database/121/SUTIL/GUID-D11E340E-14C6-43B8-AB09-6335F0C1F71B.htm#SUTIL300)

# Migrieren Sie RHEL-BYOL-Systeme mithilfe von AWS MGN zu Instances mit AWS-Lizenz
<a name="migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn"></a>

*Mike Kuznetsov, Amazon Web Services*

## Zusammenfassung
<a name="migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn-summary"></a>

Wenn Sie Ihre Workloads mithilfe von AWS Application Migration Service (AWS MGN) zu AWS migrieren, müssen Sie möglicherweise Ihre Red Hat Enterprise Linux (RHEL) -Instances aufheben und die Lizenz während der Migration vom Standardmodell Bring Your Own License (BYOL) auf ein AWS-Lizenzmodell (LI) ändern. AWS MGN unterstützt einen skalierbaren Ansatz, der Amazon Machine Image (AMI) -IDs verwendet. Dieses Muster beschreibt, wie die Lizenzänderung auf RHEL-Servern während der Rehost-Migration in großem Umfang durchgeführt werden kann. Außerdem wird erklärt, wie Sie die Lizenz für ein RHEL-System ändern können, das bereits auf Amazon Elastic Compute Cloud (Amazon EC2) läuft.

## Voraussetzungen und Einschränkungen
<a name="migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn-prereqs"></a>

**Voraussetzungen**
+ Zugriff auf das AWS-Zielkonto
+ AWS MGN wurde im AWS-Zielkonto und in der Region für die Migration initialisiert (nicht erforderlich, wenn Sie bereits von Ihrem lokalen System zu AWS migriert haben)
+ Ein RHEL-Quellserver mit einer gültigen RHEL-Lizenz

## Architektur
<a name="migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn-architecture"></a>

Dieses Muster deckt zwei Szenarien ab:
+ Migrieren Sie ein System mithilfe von AWS MGN direkt von einem lokalen System in eine AWS LI-Instance. Folgen Sie für dieses Szenario den Anweisungen im ersten Epic (*Migration zur LI-Instance — Option 1*) und im dritten Epic.
+ Änderung des Lizenzmodells von BYOL auf LI für ein zuvor migriertes RHEL-System, das bereits auf Amazon EC2 läuft. Folgen Sie für dieses Szenario den Anweisungen im zweiten Epic (*Migration zur LI-Instance* — *Option 2*) und im dritten Epic.

**Anmerkung**  
Das dritte Epic beinhaltet die Neukonfiguration der neuen RHEL-Instance für die Nutzung der von AWS bereitgestellten Red Hat Update Infrastructure (RHUI) -Server. Dieser Prozess ist für beide Szenarien derselbe.

## Tools
<a name="migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn-tools"></a>

**AWS-Services**
+ Mit dem [AWS Application Migration Service (AWS MGN)](https://docs.aws.amazon.com/mgn/latest/ug/what-is-application-migration-service.html) können Sie Anwendungen ohne Änderungen und mit minimalen Ausfallzeiten in die AWS-Cloud rehosten (Lift and Shift).

## Epen
<a name="migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn-epics"></a>

### Zur LI-Instanz migrieren — Option 1 (für ein lokales RHEL-System)
<a name="migrate-to-li-instance---option-1-for-an-on-premises-rhel-system"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Suchen Sie die AMI-ID der RHEL AWS LI-Instance in der Zielregion. | Besuchen Sie [AWS Marketplace](https://aws.amazon.com/marketplace) oder verwenden Sie die [Amazon EC2 EC2-Konsole](https://console.aws.amazon.com/ec2/), um die RHEL-AMI-ID zu finden, die der Version des RHEL-Quellsystems entspricht (z. B. RHEL-7.7), und notieren Sie sich die AMI-ID. In der Amazon EC2 EC2-Konsole können Sie AMIs nach einem der folgenden Suchbegriffe filtern:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn.html) | Cloud-Administrator | 
| Konfigurieren Sie die AWS MGN-Starteinstellungen.  | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn.html)AWS MGN wird nun diese Version der Startvorlage verwenden, um Test- oder Cutover-Instances zu starten. Weitere Informationen finden Sie in der [AWS MGN-Dokumentation](https://docs.aws.amazon.com/mgn/latest/ug/ec2-launch.html). | Cloud-Administrator | 
| Überprüfen Sie die Einstellungen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn.html) | Cloud-Administrator | 
| Starten Sie die neue LI-Instanz. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn.html) | Cloud-Administrator | 

### Zur LI-Instanz migrieren — Option 2 (für eine RHEL BYOL EC2-Instanz)
<a name="migrate-to-li-instance---option-2-for-a-rhel-byol-ec2-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie Ihre RHEL BYOL EC2-Instance zu einer AWS LI-Instance. | Sie können RHEL-Systeme, die Sie zuvor als BYOL zu AWS migriert haben, zu AWS LI-Instances wechseln, indem Sie ihre Festplatten (Amazon Elastic Block Store-Volumes) verschieben und sie an eine neue LI-Instance anhängen. Gehen Sie folgendermaßen vor, um diesen Wechsel vorzunehmen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn.html) | Cloud-Administrator | 

### Neukonfiguration von RHEL OS zur Verwendung von AWS-bereitgestelltem RHUI — beide Optionen
<a name="reconfigure-rhel-os-to-use-aws-provided-rhui-ndash-both-options"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Melden Sie das Betriebssystem vom Red Hat Abonnement und der Lizenz ab. | Nach der Migration und der erfolgreichen Umstellung muss das RHEL-System aus dem Red Hat-Abonnement entfernt werden, um den Verbrauch der Red Hat-Lizenz zu beenden und Doppelabrechnungen zu vermeiden.Um RHEL OS aus dem Red Hat-Abonnement zu entfernen, folgen Sie dem in der Dokumentation zu [Red Hat Subscription Management (RHSM](https://docs.redhat.com/en/documentation/red_hat_enterprise_linux/7/html/installation_guide/chap-subscription-management-unregistering)) beschriebenen Prozess. Verwendung des -CLI-Befehls:  <pre>subscription-manager unregister</pre>Sie können das Subscription Manager-Plugin auch deaktivieren, um den Status des Abonnements nicht mehr bei jedem **Yum-Anruf** zu überprüfen. Bearbeiten Sie dazu die Konfigurationsdatei `/etc/yum/pluginconf.d/subscription-manager.conf` und ändern Sie den Parameter `enabled=1` auf`enabled=0`. | Linux oder Systemadministrator | 
| Ersetzen Sie die alte Update-Konfiguration (RHUI, Red Hat Satellite Network, Yum-Repositorys) durch das von AWS bereitgestellte RHUI. | Sie müssen das migrierte RHEL-System neu konfigurieren, um die von AWS bereitgestellten RHUI-Server zu verwenden. Dadurch erhalten Sie Zugriff auf die RHUI-Server innerhalb der AWS-Regionen, ohne dass eine externe Update-Infrastruktur erforderlich ist. Die Änderung umfasst den folgenden Prozess:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn.html)Hier sind die detaillierten Schritte und Befehle:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn.html) | Linux oder Systemadministrator | 
| Überprüfen Sie die Konfiguration. | Stellen Sie auf der migrierten Zielinstanz sicher, dass die neue Konfiguration korrekt ist:<pre>sudo yum clean all <br />sudo yum repolist </pre> | Linux oder Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-rhel-byol-systems-to-aws-license-included-instances-by-using-aws-mgn-resources"></a>
+ [AWS Application Migration Service (AWS MGN) — Benutzerhandbuch](https://docs.aws.amazon.com/mgn/latest/ug/what-is-application-migration-service.html)
+ [Holen Sie sich ein unterstützendes AWS-RHUI-Clientpaket IMDSv2](https://access.redhat.com/solutions/5009491) (Artikel in der Red Hat Knowledgebase)
+ [Amazon EC2 EC2-Startvorlagen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-launch-templates.html) (Amazon EC2 EC2-Dokumentation)

# Migrieren Sie eine lokale Microsoft SQL Server-Datenbank zu Amazon EC2
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2"></a>

*Senthil Ramasamy, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2-summary"></a>

Dieses Muster beschreibt, wie eine lokale Microsoft SQL Server-Datenbank auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance zu Microsoft SQL Server migriert wird. Es behandelt zwei Optionen für die Migration: die Verwendung von AWS Database Migration Service (AWS DMS) oder die Verwendung systemeigener Microsoft SQL Server-Tools wie Backup und Wiederherstellung, Assistent zum Kopieren von Datenbanken oder Kopieren und Anfügen von Datenbanken. 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS Konto
+ Ein von Amazon unterstütztes Betriebssystem EC2 (eine vollständige Liste der unterstützten Betriebssystemversionen finden Sie unter [Amazon EC2 FAQs](https://aws.amazon.com/ec2/faqs/))
+ Eine Microsoft SQL Server-Quelldatenbank in einem lokalen Rechenzentrum

**Produktversionen**
+  AWS DMS Unterstützt für lokale Datenbanken und EC2 Amazon-Instance-Datenbanken: 
  + SQL Server-Versionen 2005, 2008, 2008R2, 2012, 2014, 2016, 2017 und 2019 
  + Enterprise-, Standard-, Workgroup-, Developer- und Web-Editionen
+ Die aktuelle Liste der unterstützten Versionen finden Sie unter [Using a Microsoft SQL Server Database as a Target for AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.SQLServer.html).   

## Architektur
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale Microsoft SQL Server-Datenbank

**Zieltechnologie-Stack**
+ Microsoft SQL Server-Datenbank auf einer EC2 Instanz

**Zielarchitektur**

![\[Primäre und Standby-Instanzen von Microsoft SQL Server auf EC2 Instanzen in zwei Availability Zones.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/f0a155b3-4977-4e1f-8332-89eab29c1e25/images/53e2c27d-ceb4-4d88-a022-93dd0b343eaf.png)


**Architektur der Datenmigration**
+ Verwenden AWS DMS

![\[Migrieren von lokalen SQL Server-Daten zu einer EC2 Instanz mithilfe von AWS DMS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/f0a155b3-4977-4e1f-8332-89eab29c1e25/images/1cbe32ea-e285-4cac-9153-4428bad9b229.png)

+ Verwendung systemeigener SQL Server-Tools 

![\[Migrieren von lokalen SQL Server-Daten zu einer EC2 Instanz mithilfe systemeigener SQL Server-Tools\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/f0a155b3-4977-4e1f-8332-89eab29c1e25/images/ad2caf54-7399-4038-91a3-acba9fa7da29.png)


## Tools
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2-tools"></a>
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/) hilft Ihnen bei der Migration Ihrer Daten zu und von weit verbreiteten kommerziellen und Open-Source-Datenbanken wie Oracle, SQL Server, MySQL und PostgreSQL. Sie können AWS DMS es verwenden, um Ihre Daten in die AWS Cloud, zwischen lokalen Instanzen (über ein AWS Cloud Setup) oder zwischen Kombinationen von Cloud- und lokalen Setups zu migrieren.
+ [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist.
+ Zu den systemeigenen Microsoft SQL Server-Tools gehören Sicherung und Wiederherstellung, der Assistent zum Kopieren von Datenbanken sowie das Kopieren und Anfügen von Datenbanken.

## Epen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Quell- und Zieldatenbankversionen. |  | DBA | 
| Identifizieren Sie die Version des Zielbetriebssystems. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Hardwareanforderungen für die Zielserverinstanz auf der Grundlage der Microsoft SQL Server-Kompatibilitätsliste und der Kapazitätsanforderungen. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Speicheranforderungen für Typ und Kapazität. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Netzwerkanforderungen, einschließlich Latenz und Bandbreite. |  | DBA, Systemadministrator | 
| Wählen Sie den EC2 Instanztyp auf der Grundlage von Kapazität, Speicherfunktionen und Netzwerkfunktionen aus. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Sicherheitsanforderungen für das Netzwerk und den Hostzugriff für die Quell- und Zieldatenbanken. |  | DBA, Systemadministrator | 
| Identifizieren Sie eine Liste der Benutzer, die für die Installation der Microsoft SQL Server-Software erforderlich sind. |  | DBA, Systemadministrator | 
| Legen Sie die Backup-Strategie fest. |  | DBA | 
| Ermitteln Sie die Verfügbarkeitsanforderungen. |  | DBA | 
| Identifizieren Sie die Strategie für die Anwendungsmigration und -umstellung. |  | DBA, Systemadministrator | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine virtuelle private Cloud (VPC) und Subnetze. |  | Systemadministrator | 
| Erstellen Sie Sicherheitsgruppen und eine Network Access Control List (ACL). |  | Systemadministrator | 
| Konfigurieren und starten Sie eine EC2 Instanz. |  | Systemadministrator | 

### Installieren Sie die Software
<a name="install-the-software"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Benutzer und Gruppen, die für die Microsoft SQL Server-Software erforderlich sind. |  | DBA, Systemadministrator | 
| Laden Sie die Microsoft SQL Server-Software herunter. |  | DBA, Systemadministrator | 
| Installieren Sie die Microsoft SQL Server-Software auf der EC2 Instanz und konfigurieren Sie den Server. |  | DBA, Systemadministrator | 

### Migrieren Sie die Daten — Option 1
<a name="migrate-the-data---option-1"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwenden Sie native Microsoft SQL Server-Tools oder Tools von Drittanbietern, um die Datenbankobjekte und -daten zu migrieren. | Zu den Tools gehören Sicherung und Wiederherstellung, der Assistent zum Kopieren von Datenbanken sowie das Kopieren und Anfügen von Datenbanken. Weitere Informationen finden Sie in der Anleitung [Migrieren von Microsoft SQL Server-Datenbanken auf die AWS Cloud](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-sql-server/). | DBA | 

### Migrieren Sie die Daten — Option 2
<a name="migrate-the-data---option-2"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie die Daten mithilfe von AWS DMS. | Weitere Informationen zur Verwendung AWS DMS finden Sie unter den Links im Abschnitt [Verwandte Ressourcen](#migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2-resources). | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der Strategie zur Anwendungsmigration. | Verwenden Sie AWS Schema Conversion Tool (AWS SCT), um SQL-Code zu analysieren und zu ändern, der in den Quellcode der Anwendung eingebettet ist. | DBA, Besitzer der App | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der Strategie zur Umstellung der Anwendung. |  | DBA, App-Besitzer, Systemadministrator | 

### Schließen Sie das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie alle temporären AWS Ressourcen herunter. | Zu den temporären Ressourcen gehören die AWS DMS Replikationsinstanz und die EC2 Instanz für AWS SCT. | DBA, Systemadministrator | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA, App-Besitzer, Systemadministrator | 
| Erfassen Sie Kennzahlen zum Zeitpunkt der Migration, zu den prozentualen Einsparungen bei den manuellen Kosten im Vergleich zu den Werkzeugkosten usw. |  | DBA, App-Besitzer, Systemadministrator | 
| Schließen Sie das Projekt und geben Sie Feedback. |  | DBA, App-Besitzer, Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2-resources"></a>

**Referenzen**
+ [Migration von Microsoft SQL Server-Datenbanken auf die AWS Cloud](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-sql-server/)
+ [Amazon EC2](https://aws.amazon.com/ec2/)
+ [Amazon EC2 FAQs](https://aws.amazon.com/ec2/faqs/)
+ [ EC2 Amazon-Preisgestaltung](https://aws.amazon.com/ec2/pricing/)
+ [AWS Database Migration Service](https://aws.amazon.com/dms/)
+ [Microsoft-Produkte auf AWS](https://aws.amazon.com/windows/products/)
+ [Microsoft-Lizenzierung am AWS](https://aws.amazon.com/windows/resources/licensing/)
+ [Microsoft SQL Server auf AWS](https://aws.amazon.com/windows/products/sql/)

**Tutorials und Videos**
+ [Erste Schritte mit](https://aws.amazon.com/ec2/getting-started/) Amazon EC2
+ [Erste Schritte mit ](https://aws.amazon.com/dms/getting-started/)AWS Database Migration Service
+ [Verbinden Sie eine EC2 Amazon-Instance mit Ihrem Simple AD Active Directory](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/simple_ad_join_instance.html)
+ [Verbinden Sie eine EC2 Amazon-Instance mit Ihrem AWS Managed Microsoft AD Active Directory](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/ms_ad_join_instance.html)
+ [AWS Database Migration Service](https://www.youtube.com/watch?v=zb4GcjEdl8U)(Video)
+ [Einführung in Amazon EC2 — Elastic Cloud Server und Hosting mit AWS](https://www.youtube.com/watch?v=TsRBftzZsQo) (Video)

# Rehosten Sie lokale Workloads in der AWS-Cloud: Migrationscheckliste
<a name="rehost-on-premises-workloads-in-the-aws-cloud-migration-checklist"></a>

*Srikanth Rangavajhala, Amazon Web Services*

## Zusammenfassung
<a name="rehost-on-premises-workloads-in-the-aws-cloud-migration-checklist-summary"></a>

Das Rehosten von lokalen Workloads in der Amazon Web Services (AWS) -Cloud umfasst die folgenden Migrationsphasen: Planung, Pre-Discovery, Discovery, Build, Test und Cutover. In diesem Muster werden die Phasen und die damit verbundenen Aufgaben beschrieben. Die Aufgaben werden ausführlich beschrieben und unterstützen etwa 75% aller Anwendungsworkloads. Sie können diese Aufgaben über einen Zeitraum von zwei bis drei Wochen in einem agilen Sprintzyklus implementieren.

Sie sollten diese Aufgaben mit Ihrem Migrationsteam und Ihren Beratern besprechen und überprüfen. Nach der Überprüfung können Sie die Informationen sammeln, Aufgaben streichen oder neu bewerten, falls dies Ihren Anforderungen entspricht, und andere Aufgaben so ändern, dass sie mindestens 75% der Anwendungs-Workloads in Ihrem Portfolio unterstützen. Anschließend kannst du ein agiles Projektmanagement-Tool wie Atlassian Jira oder Rally Software verwenden, um die Aufgaben zu importieren, sie Ressourcen zuzuweisen und deine Migrationsaktivitäten zu verfolgen. 

Das Muster geht davon aus, dass Sie [AWS Cloud Migration Factory](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/solution-overview.html) verwenden, um Ihre Workloads neu zu hosten, aber Sie können das Migrationstool Ihrer Wahl verwenden.

Amazon Macie kann Ihnen helfen, sensible Daten in Ihren Wissensdatenbanken zu identifizieren, die als Datenquellen gespeichert sind, Aufrufprotokolle modellieren und Eingabeaufforderungsspeicher in Amazon Simple Storage Service (Amazon S3) -Buckets speichern. [Weitere Informationen finden Sie in der Macie-Dokumentation.](https://docs.aws.amazon.com/macie/latest/user/data-classification.html)

## Voraussetzungen und Einschränkungen
<a name="rehost-on-premises-workloads-in-the-aws-cloud-migration-checklist-prereqs"></a>

**Voraussetzungen**
+ Projektmanagement-Tool zur Nachverfolgung von Migrationsaufgaben (z. B. Atlassian Jira oder Rally Software)
+ Migrationstool zum Rehosten Ihrer Workloads auf AWS (z. B. [Cloud Migration Factory](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/solution-overview.html))

## Architektur
<a name="rehost-on-premises-workloads-in-the-aws-cloud-migration-checklist-architecture"></a>

**Quellplattform**
+ Lokaler Quellstapel (einschließlich Technologien, Anwendungen, Datenbanken und Infrastruktur)  

**Zielplattform**
+ AWS-Cloud-Zielstapel (einschließlich Technologien, Anwendungen, Datenbanken und Infrastruktur) 

**Architektur**

Das folgende Diagramm veranschaulicht das Rehosting (Erkennung und Migration von Servern aus einer lokalen Quellumgebung zu AWS) mithilfe von Cloud Migration Factory und AWS Application Migration Service.

![\[Rehosten von Servern auf AWS mithilfe von Cloud Migration Factory und Application Migration Service\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/8e2d2d72-30cc-4e98-8abd-ac2ef95e599b/images/735ad65b-2646-4803-82c9-f7f93369b3a5.png)


## Tools
<a name="rehost-on-premises-workloads-in-the-aws-cloud-migration-checklist-tools"></a>
+ Sie können ein Migrations- und Projektmanagement-Tool Ihrer Wahl verwenden.

## Epen
<a name="rehost-on-premises-workloads-in-the-aws-cloud-migration-checklist-epics"></a>

### Planungsphase
<a name="planning-phase"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Den Rückstand vor der Entdeckung aufarbeiten. | Führen Sie die Arbeitssitzung mit Abteilungsleitern und Anwendungsbesitzern durch, bevor der Rückstand erkannt wird.  | Projektmanager, Leiter von Agile Scrum | 
|  Führen Sie die Arbeitssitzung zur Sprint-Planung durch. | Verteilen Sie die Anwendungen, die Sie migrieren möchten, als Übung für den Umfang auf mehrere Sprints und Wellen. | Projektmanager, Leiter von Agile Scrum | 

### Phase vor der Entdeckung
<a name="pre-discovery-phase"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bestätigen Sie die Anwendungskenntnisse. | Bestätigen und dokumentieren Sie den Inhaber der Anwendung und dessen Kenntnisse über die Anwendung. Stellen Sie fest, ob es einen anderen Ansprechpartner für technische Fragen gibt. | Migrationsspezialist (Interviewer) | 
| Ermitteln Sie die Compliance-Anforderungen für Anwendungen. | Erkundigen Sie sich beim Eigentümer der Anwendung, dass die Anwendung nicht den Anforderungen des Payment Card Industry Data Security Standard (PCI DSS), des Sarbanes-Oxley Act (SOX), personenbezogener Daten (PII) oder anderer Standards entsprechen muss. Wenn Compliance-Anforderungen bestehen, müssen die Teams ihre Konformitätsprüfungen auf den Servern abschließen, die migriert werden sollen. | Migrationsspezialist (Interviewer) | 
| Bestätigen Sie die Anforderungen für die Produktionsversion.  | Bestätigen Sie die Anforderungen für die Freigabe der migrierten Anwendung für die Produktion (z. B. Veröffentlichungsdatum und Dauer der Ausfallzeit) mit dem Eigentümer der Anwendung oder dem technischen Ansprechpartner. | Migrationsspezialist (Interviewer) | 
| Serverliste abrufen. | Ruft die Liste der Server ab, die der Zielanwendung zugeordnet sind. | Migrationsspezialist (Interviewer) | 
| Holen Sie sich das logische Diagramm, das den aktuellen Status zeigt. | Rufen Sie das aktuelle Statusdiagramm für die Anwendung vom Unternehmensarchitekten oder dem Anwendungsbesitzer ab. | Migrationsspezialist (Interviewer) | 
| Erstellen Sie ein logisches Diagramm, das den Zielstatus zeigt. | Erstellen Sie ein logisches Diagramm der Anwendung, das die Zielarchitektur auf AWS zeigt. Dieses Diagramm sollte Server, Konnektivität und Zuordnungsfaktoren veranschaulichen. | Unternehmensarchitekt, Geschäftsinhaber | 
| Serverinformationen abrufen. | Sammeln Sie Informationen über die Server, die der Anwendung zugeordnet sind, einschließlich ihrer Konfigurationsdetails. | Migrationsspezialist (Interviewer) | 
| Fügen Sie Serverinformationen zur Discovery-Vorlage hinzu. | Fügen Sie der Vorlage für die Anwendungserkennung detaillierte Serverinformationen hinzu (dieses Muster finden Sie `mobilize-application-questionnaire.xlsx` im Anhang). Diese Vorlage enthält alle anwendungsbezogenen Sicherheits-, Infrastruktur-, Betriebssystem- und Netzwerkdetails. | Migrationsspezialist (Interviewer) | 
| Veröffentlichen Sie die Vorlage für die Anwendungserkennung. | Teilen Sie die Vorlage für die Anwendungserkennung mit dem Anwendungseigentümer und dem Migrationsteam, damit sie gemeinsam darauf zugreifen und sie verwenden können. | Migrationsspezialist (Interviewer) | 

### Entdeckungsphase
<a name="discovery-phase"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bestätigen Sie die Serverliste. | Bestätigen Sie die Serverliste und den Zweck der einzelnen Server mit dem Besitzer der Anwendung oder dem technischen Leiter. | Spezialist für Migration | 
| Identifizieren und fügen Sie Servergruppen hinzu. | Identifizieren Sie Servergruppen wie Webserver oder Anwendungsserver und fügen Sie diese Informationen der Vorlage für die Anwendungserkennung hinzu. Wählen Sie die Ebene der Anwendung (Web, Anwendung, Datenbank) aus, zu der jeder Server gehören soll. | Spezialist für Migration | 
| Füllen Sie die Vorlage für die Anwendungserkennung aus. | Vervollständigen Sie die Details der Vorlage für die Anwendungserkennung mit Hilfe des Migrationsteams, des Anwendungsteams und AWS. | Spezialist für Migration | 
| Fügen Sie fehlende Serverdetails hinzu (Middleware- und Betriebssystemteams). | Bitten Sie Middleware- und Betriebssystemteams (OS), die Vorlage für die Anwendungserkennung zu überprüfen und alle fehlenden Serverdetails, einschließlich Datenbankinformationen, hinzuzufügen. | Spezialist für Migration | 
| Holen Sie sich die inbound/outbound Verkehrsregeln (Netzwerkteam). | Bitten Sie das Netzwerkteam, die inbound/outbound Verkehrsregeln für die Quell- und Zielserver zu erhalten. Das Netzwerkteam sollte außerdem bestehende Firewallregeln hinzufügen, diese in ein Sicherheitsgruppenformat exportieren und bestehende Load Balancer zur Vorlage für die Anwendungserkennung hinzufügen. | Spezialist für Migration | 
| Identifizieren Sie das erforderliche Tagging. | Ermitteln Sie die Tagging-Anforderungen für die Anwendung. | Spezialist für Migration | 
| Erstellen Sie Details zur Firewall-Anforderung. | Erfassen und filtern Sie die Firewallregeln, die für die Kommunikation mit der Anwendung erforderlich sind.  | Migrationsspezialist, Lösungsarchitekt, Netzwerkleiter  | 
| Aktualisieren Sie den EC2 Instanztyp. | Aktualisieren Sie den Amazon Elastic Compute Cloud (Amazon EC2) -Instanztyp, der in der Zielumgebung verwendet werden soll, basierend auf Infrastruktur- und Serveranforderungen.  | Migrationsspezialist, Lösungsarchitekt, Netzwerkleiter | 
| Identifizieren Sie das aktuelle Statusdiagramm. | Identifizieren oder erstellen Sie das Diagramm, das den aktuellen Status der Anwendung zeigt. Dieses Diagramm wird in der Anfrage zur Informationssicherheit (InfoSec) verwendet.  | Migrationsspezialist, Lösungsarchitekt | 
| Finalisieren Sie das future Zustandsdiagramm. | Finalisieren Sie das Diagramm, das den future (Ziel-) Status der Anwendung zeigt. Dieses Diagramm wird auch in der InfoSec Anfrage verwendet.   | Migrationsspezialist, Lösungsarchitekt | 
| Erstellen Sie Serviceanfragen für Firewalls oder Sicherheitsgruppen. | Erstellen Sie Firewall- oder Sicherheitsgruppen-Serviceanfragen (für Entwicklung/Qualitätssicherung, Vorproduktion und Produktion). Wenn Sie Cloud Migration Factory verwenden, fügen Sie replikationsspezifische Ports hinzu, sofern diese noch nicht geöffnet sind.  | Migrationsspezialist, Lösungsarchitekt, Netzwerkleiter | 
| Überprüfen Sie die Anfragen von Firewalls oder Sicherheitsgruppen (InfoSec Team). | In diesem Schritt überprüft und genehmigt das InfoSec Team die Firewall- oder Sicherheitsgruppenanfragen, die im vorherigen Schritt erstellt wurden.  | InfoSec Ingenieur, Migrationsspezialist | 
| Implementieren Sie Firewall-Sicherheitsgruppenanfragen (Netzwerkteam). | Nachdem das InfoSec Team die Firewallanfragen genehmigt hat, implementiert das Netzwerkteam die erforderlichen inbound/outbound Firewallregeln.  | Migrationsspezialist, Lösungsarchitekt, Netzwerkleiter | 

### Erstellungsphase (Wiederholung für Entwicklungs- und QA-, Vorproduktions- und Produktionsumgebungen)
<a name="build-phase-repeat-for-development-qa-pre-production-and-production-environments"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Importieren Sie die Anwendungs- und Serverdaten. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/rehost-on-premises-workloads-in-the-aws-cloud-migration-checklist.html)Wenn Sie Cloud Migration Factory nicht verwenden, folgen Sie den Anweisungen zur Einrichtung Ihres Migrationstools. | Migrationsspezialist, Cloud-Administrator | 
| Überprüfen Sie die Voraussetzungen für Quellserver. | Connect mit den Quellservern im Geltungsbereich her, um Voraussetzungen wie TCP-Port 1500, TCP-Port 443, freien Speicherplatz auf dem Stammvolume, .NET Framework-Version und andere Parameter zu überprüfen. Diese sind für die Replikation erforderlich. Weitere Informationen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-factory-web-console.html#prerequisites-2). | Migrationsspezialist, Cloud-Administrator | 
| Erstellen Sie eine Serviceanfrage zur Installation von Replikationsagenten.  | Erstellen Sie eine Serviceanfrage zur Installation von Replikationsagenten auf den im Lieferumfang enthaltenen Servern für Entwicklung/Qualitätssicherung, Vorproduktion oder Produktion. | Migrationsspezialist, Cloud-Administrator | 
| Installieren Sie die Replikationsagenten. | Installieren Sie die Replikationsagenten auf den Quellservern im Leistungsumfang auf den Entwicklungs-, QA-, Vorproduktions- oder Produktionsrechnern. Weitere Informationen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-factory-web-console.html#install-the-replication-agents). | Migrationsspezialist, Cloud-Administrator | 
| Push die Skripte nach dem Start. | Der Application Migration Service unterstützt Skripts nach dem Start, um Sie bei der Automatisierung von Aktivitäten auf Betriebssystemebene zu unterstützen, z. B. die Installation oder Deinstallation von Software nach dem Start von Ziel-Instances. In diesem Schritt werden die Skripts nach dem Start auf Windows- oder Linux-Computer übertragen, je nachdem, welche Server für die Migration identifiziert wurden. Anweisungen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-factory-web-console.html#push-the-post-launch-scripts). | Migrationsspezialist, Cloud-Administrator | 
| Überprüfen Sie den Replikationsstatus. | Bestätigen Sie den Replikationsstatus für die Quellserver im Geltungsbereich automatisch mithilfe des bereitgestellten Skripts. **Das Skript wird alle fünf Minuten wiederholt, bis sich der Status aller Quellserver in der angegebenen Welle auf Fehlerfrei ändert.** Anweisungen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-factory-web-console.html#verify-the-replication-status). | Migrationsspezialist, Cloud-Administrator | 
| Erstellen Sie den Admin-Benutzer. | Möglicherweise ist ein lokaler Administrator oder Sudo-Benutzer auf den Quellcomputern erforderlich, um Probleme nach der Umstellung von den Quellservern im Geltungsbereich auf AWS zu beheben. Das Migrationsteam verwendet diesen Benutzer, um sich beim Zielserver anzumelden, wenn der Authentifizierungsserver (z. B. der DC- oder LDAP-Server) nicht erreichbar ist. Anweisungen für diesen Schritt finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/step4.html#add-a-user-to-the-admin-group). | Migrationsspezialist, Cloud-Administrator | 
| Validieren Sie die Startvorlage. | Überprüfen Sie die Server-Metadaten, um sicherzustellen, dass sie erfolgreich funktionieren und keine ungültigen Daten enthalten. In diesem Schritt werden sowohl die Test- als auch die Cutover-Metadaten validiert. Anweisungen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-factory-web-console.html#validate-launch-template-1). | Migrationsspezialist, Cloud-Administrator | 

### Testphase (Wiederholung für Entwicklungs- und QA-, Vorproduktions- und Produktionsumgebungen)
<a name="test-phase-repeat-for-development-qa-pre-production-and-production-environments"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Serviceanfrage. | Erstellen Sie eine Serviceanfrage für das Infrastrukturteam und andere Teams, um die Anwendung auf Entwicklungs-/QA-, Vorproduktions- oder Produktionsinstanzen umzustellen.  | Migrationsspezialist, Cloud-Administrator | 
| Konfigurieren Sie einen Load Balancer (optional). | Konfigurieren Sie die erforderlichen Load Balancer, z. B. einen [Application Load Balancer oder einen F5-Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/create-application-load-balancer.html)[, mit iRules](https://www.f5.com/resources/white-papers/load-balancing-101-nuts-and-bolts). | Migrationsspezialist, Cloud-Administrator | 
| Starten Sie Instanzen zum Testen. | Startet alle Zielcomputer für eine bestimmte Welle im Application Migration Service im Testmodus. Weitere Informationen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-factory-web-console.html#launch-instances-for-testing). | Migrationsspezialist, Cloud-Administrator | 
| Überprüfen Sie den Status der Zielinstanz. | Überprüfen Sie den Status der Zielinstanz, indem Sie den Startvorgang für alle Quellserver im Geltungsbereich in derselben Welle überprüfen. Es kann bis zu 30 Minuten dauern, bis die Ziel-Instances hochgefahren sind. Sie können den Status manuell überprüfen, indem Sie sich bei der EC2 Amazon-Konsole anmelden, nach dem Namen des Quellservers suchen und die Spalte **Statusprüfung überprüfen**. Die **bestandenen Statusprüfungen 2/2** deuten darauf hin, dass die Instance aus Sicht der Infrastruktur fehlerfrei ist. | Migrationsspezialist, Cloud-Administrator | 
| DNS-Einträge ändern. | Ändern Sie DNS-Einträge (Domain Name System). (Verwenden Sie `resolv.conf` oder `host.conf` für eine Microsoft Windows-Umgebung.) Konfigurieren Sie jede EC2 Instanz so, dass sie auf die neue IP-Adresse dieses Hosts verweist.Stellen Sie sicher, dass es keine DNS-Konflikte zwischen lokalen Servern und AWS-Cloud-Servern gibt. Dieser Schritt und die folgenden Schritte sind optional, abhängig von der Umgebung, in der der Server gehostet wird. | Migrationsspezialist, Cloud-Administrator | 
| Testen Sie die Konnektivität zu Backend-Hosts von EC2 Instanzen aus. | Überprüfen Sie die Anmeldungen anhand der Domänenanmeldedaten für die migrierten Server. | Migrationsspezialist, Cloud-Administrator | 
| Aktualisieren Sie den DNS-A-Eintrag. | Aktualisieren Sie den DNS-A-Eintrag für jeden Host so, dass er auf die neue EC2 private Amazon-IP-Adresse verweist. | Migrationsspezialist, Cloud-Administrator | 
| Aktualisieren Sie den DNS-CNAME-Eintrag. | Aktualisieren Sie den DNS-CNAME-Eintrag für virtuelle Server IPs (Load Balancer-Namen) so, dass er auf den Cluster für Web- und Anwendungsserver verweist. | Migrationsspezialist, Cloud-Administrator | 
| Testen Sie die Anwendung in den entsprechenden Umgebungen. | Melden Sie sich bei der neuen EC2 Instanz an und testen Sie die Anwendung in den Entwicklungs-, QA-, Vorproduktions- und Produktionsumgebungen. | Migrationsspezialist, Cloud-Administrator | 
| Als bereit für die Umstellung markieren. | Wenn der Test abgeschlossen ist, ändern Sie den Status des Quellservers, um anzuzeigen, dass er bereit für die Übernahme ist, sodass Benutzer eine Übernahmeinstanz starten können. Anweisungen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-factory-web-console.html#mark-as-ready-for-cutover). | Migrationsspezialist, Cloud-Administrator | 

### Umstellungsphase
<a name="cutover-phase"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen Bereitstellungsplan für die Produktion. | Erstellen Sie einen Bereitstellungsplan für die Produktion (einschließlich eines Notfallplans). | Migrationsspezialist, Cloud-Administrator | 
| Informieren Sie das Betriebsteam über Ausfallzeiten. | Informieren Sie das Betriebsteam über den Zeitplan für die Ausfallzeiten der Server. Einige Teams benötigen für diese Benachrichtigung möglicherweise eine Änderungsanfrage oder ein Ticket für eine Serviceanfrage (CR/SR). | Migrationsspezialist, Cloud-Administrator | 
| Replizieren Sie Produktionsmaschinen. | Replizieren Sie Produktionsmaschinen mithilfe des Application Migration Service oder eines anderen Migrationstools. | Migrationsspezialist, Cloud-Administrator | 
| Fahren Sie die Quellserver im Geltungsbereich herunter. | Nachdem Sie den Replikationsstatus der Quellserver überprüft haben, können Sie die Quellserver herunterfahren, um Transaktionen von Client-Anwendungen zu den Servern zu stoppen. Sie können die Quellserver im Übernahmefenster herunterfahren. Weitere Informationen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-factory-web-console.html#shut-down-the-in-scope-source-servers). | Cloud-Administrator | 
| Starten Sie Instanzen für die Umstellung. | Startet alle Zielcomputer für eine bestimmte Welle im Application Migration Service im Übernahmemodus. Weitere Informationen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-factory-web-console.html#launch-instances-for-cutover). | Migrationsspezialist, Cloud-Administrator | 
| Zielinstanz abrufen IPs. | Rufen Sie die IPs vier Zielinstanzen ab. Wenn das DNS-Update in Ihrer Umgebung ein manueller Prozess ist, müssten Sie die neuen IP-Adressen für alle Zielinstanzen abrufen. Weitere Informationen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-command-prompt.html#retrieve-the-target-instance-ip). | Migrationsspezialist, Cloud-Administrator | 
| Überprüfen Sie die Verbindungen zum Zielserver. | Nachdem Sie die DNS-Einträge aktualisiert haben, stellen Sie mit dem Hostnamen eine Verbindung zu den Zielinstanzen her, um die Verbindungen zu überprüfen. Weitere Informationen finden Sie im [Cloud Migration Factory-Implementierungsleitfaden](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/list-of-automated-migration-activities-using-command-prompt.html#verify-the-target-server-connections). | Migrationsspezialist, Cloud-Administrator | 

## Zugehörige Ressourcen
<a name="rehost-on-premises-workloads-in-the-aws-cloud-migration-checklist-resources"></a>
+ [Wie migriert man](https://aws.amazon.com/migrate-modernize-build/cloud-migration/how-to-migrate/)
+ [Implementierungsleitfaden für AWS Cloud Migration Factory](https://docs.aws.amazon.com/solutions/latest/cloud-migration-factory-on-aws/solution-overview.html)
+ [Automatisierung umfangreicher Servermigrationen mit Cloud Migration Factory](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-factory-cloudendure/welcome.html)
+ [AWS Application Migration Service — Benutzerhandbuch](https://docs.aws.amazon.com/mgn/latest/ug/what-is-application-migration-service.html)
+ [AWS Migration Acceleration Program](https://aws.amazon.com/migration-acceleration-program/)

## Anlagen
<a name="attachments-8e2d2d72-30cc-4e98-8abd-ac2ef95e599b"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/8e2d2d72-30cc-4e98-8abd-ac2ef95e599b/attachments/attachment.zip)

# Richten Sie mithilfe von Amazon eine Multi-AZ-Infrastruktur für einen SQL Server Always On FCI ein FSx
<a name="set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx"></a>

*Manish Garg, T.V.R.L.Phani Kumar Dadi, Nishad Mankar und RAJNEESH TYAGI, Amazon Web Services*

## Zusammenfassung
<a name="set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx-summary"></a>

Wenn Sie eine große Anzahl von Microsoft SQL Server Always On Failoverclusterinstanzen (FCIs) schnell migrieren müssen, kann Ihnen dieses Muster dabei helfen, die Bereitstellungszeit zu minimieren. Durch die Verwendung von Automatisierung und Amazon FSx for Windows File Server werden manueller Aufwand, von Menschen verursachte Fehler und der Zeitaufwand für die Bereitstellung einer großen Anzahl von Clustern reduziert.

Dieses Muster richtet die Infrastruktur für SQL Server FCIs in einer Multi-Availability Zone (Multi-AZ) -Bereitstellung auf Amazon Web Services (AWS) ein. Die Bereitstellung der für diese Infrastruktur erforderlichen AWS-Services wird mithilfe von [ CloudFormationAWS-Vorlagen](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html) automatisiert. Die Installation von SQL Server und die Erstellung von Clusterknoten auf einer [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/concepts.html) -Instance werden mithilfe von PowerShell Befehlen durchgeführt.

Diese Lösung verwendet ein hochverfügbares Multi-AZ [Amazon FSx for Windows-Dateisystem](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/what-is.html) als gemeinsamen Zeugen für die Speicherung der SQL Server-Datenbankdateien. Das FSx Amazon-Dateisystem und EC2 Windows-Instances, die SQL Server hosten, sind mit derselben AWS Directory Service for Microsoft Active Directory-Domäne (AWS Managed Microsoft AD) verknüpft.

## Voraussetzungen und Einschränkungen
<a name="set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Ein AWS-Benutzer mit ausreichenden Berechtigungen zur Bereitstellung von Ressourcen mithilfe von CloudFormation AWS-Vorlagen
+ AWS Directory Service für Microsoft Active Directory
+ Anmeldeinformationen in AWS Secrets Manager zur Authentifizierung bei AWS Managed Microsoft AD in einem Schlüssel-Wert-Paar:
  + `ADDomainName`: <Domain Name>
  + `ADDomainJoinUserName`: <Domain Username>
  + `ADDomainJoinPassword`: <Domain User Password>
  + `TargetOU`: <Target OU Value>
**Anmerkung**  
Sie verwenden denselben Schlüsselnamen in der AWS Systems Manager Manager-Automatisierung für die AWS Managed Microsoft AD-Join-Aktivität.
+ SQL Server-Mediendateien für die SQL Server-Installation und die Erstellung von Windows-Service- oder Domänenkonten, die bei der Clustererstellung verwendet werden
+ Eine virtuelle private Cloud (VPC) mit zwei öffentlichen Subnetzen in separaten Availability Zones, zwei privaten Subnetzen in den Availability Zones, einem Internet-Gateway, NAT-Gateways, Routentabellenzuordnungen und einem Jump-Server

**Produktversionen**
+ Windows Server 2012 R2 und Microsoft SQL Server 2016

## Architektur
<a name="set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx-architecture"></a>

**Quelltechnologie-Stack**
+ Lokaler SQL Server mit FCIs Verwendung eines gemeinsam genutzten Laufwerks

**Zieltechnologie-Stack**
+  EC2 AWS-Instanzen
+ Amazon FSx für Windows-Dateiserver
+ Runbook zur AWS Systems Manager Automation
+ Netzwerkkonfigurationen (VPC, Subnetze, Internet-Gateway, NAT-Gateways, Jump-Server, Sicherheitsgruppen)
+ AWS Secrets Manager
+ AWS Managed Microsoft AD
+ Amazon EventBridge
+ AWS Identity and Access Management (IAM)

**Zielarchitektur**

Das folgende Diagramm zeigt ein AWS-Konto in einer einzelnen AWS-Region mit einer VPC, die zwei Availability Zones umfasst, zwei öffentliche Subnetze mit NAT-Gateways, einem Jump-Server im ersten öffentlichen Subnetz, zwei privaten Subnetzen mit jeweils einer EC2 Instance für einen SQL Server-Knoten in einer Knotensicherheitsgruppe und einem FSx Amazon-Dateisystem, das eine Verbindung zu jedem der SQL Server-Knoten herstellt. AWS Directory Service, Amazon EventBridge, AWS Secrets Manager und AWS Systems Manager sind ebenfalls enthalten.

![\[Multi-AZ-Architektur mit Ressourcen in öffentlichen und privaten Subnetzen mit Knotensicherheitsgruppen.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/f09c0164-be2d-4665-a574-7ec29fd25082/images/543829a9-e130-4542-9c4e-7518c6cbe967.png)


**Automatisierung und Skalierung**
+ Sie können AWS Systems Manager verwenden, um AWS Managed Microsoft AD beizutreten und die SQL Server-Installation durchzuführen.

## Tools
<a name="set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx-tools"></a>

**AWS-Services**
+ [AWS CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html) hilft Ihnen dabei, AWS-Ressourcen einzurichten, sie schnell und konsistent bereitzustellen und sie während ihres gesamten Lebenszyklus über AWS-Konten und Regionen hinweg zu verwalten.
+ [AWS Directory Service](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/what_is.html) bietet mehrere Möglichkeiten, Microsoft Active Directory (AD) mit anderen AWS-Services wie Amazon Elastic Compute Cloud (Amazon EC2), Amazon Relational Database Service (Amazon RDS) für SQL Server und Amazon FSx für Windows File Server zu verwenden.
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/) bietet skalierbare Rechenkapazität in der AWS-Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.
+ [Amazon EventBridge](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-what-is.html) ist ein serverloser Event-Bus-Service, mit dem Sie Ihre Anwendungen mit Echtzeitdaten aus einer Vielzahl von Quellen verbinden können. Zum Beispiel AWS-Lambda-Funktionen, HTTP-Aufruf-Endpunkte, die API-Ziele verwenden, oder Event-Busse in anderen AWS-Konten.
+ [AWS Identity and Access Management (IAM)](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) hilft Ihnen dabei, den Zugriff auf Ihre AWS-Ressourcen sicher zu verwalten, indem kontrolliert wird, wer authentifiziert und autorisiert ist, diese zu verwenden.
+ [AWS Secrets Manager](https://docs.aws.amazon.com/secretsmanager/latest/userguide/intro.html) hilft Ihnen dabei, hartcodierte Anmeldeinformationen in Ihrem Code, einschließlich Passwörter, durch einen API-Aufruf an Secrets Manager zu ersetzen, um das Geheimnis programmgesteuert abzurufen.
+ [AWS Systems Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/what-is-systems-manager.html) unterstützt Sie bei der Verwaltung Ihrer Anwendungen und Infrastruktur, die in der AWS-Cloud ausgeführt werden. Es vereinfacht das Anwendungs- und Ressourcenmanagement, verkürzt die Zeit für die Erkennung und Lösung betrieblicher Probleme und hilft Ihnen, Ihre AWS-Ressourcen sicher und skalierbar zu verwalten.

**Andere Tools**
+ [PowerShell](https://learn.microsoft.com/en-us/powershell/)ist ein Automatisierungs- und Konfigurationsverwaltungsprogramm von Microsoft, das unter Windows, Linux und macOS läuft. Dieses Muster verwendet PowerShell Skripts.

**Code-Repository**

Der Code für dieses Muster ist im Repository GitHub [aws-windows-failover-cluster-automation](https://github.com/aws-samples/aws-windows-failover-cluster-automation) verfügbar.

## Best Practices
<a name="set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx-best-practices"></a>
+ Die IAM-Rollen, die für die Bereitstellung dieser Lösung verwendet werden, sollten dem Prinzip der geringsten Rechte entsprechen. Weitere Informationen finden Sie in der [IAM-Dokumentation](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html#grant-least-privilege).
+ Folgen Sie den [ CloudFormation bewährten Methoden von AWS](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/best-practices.html).

## Epen
<a name="set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx-epics"></a>

### Stellen Sie die Infrastruktur bereit
<a name="deploy-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie den Systems Manager CloudFormation Manager-Stack bereit. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.html) | AWS DevOps, DevOps Ingenieur | 
| Stellen Sie den Infrastruktur-Stack bereit. | Erstellen Sie nach erfolgreicher Bereitstellung des Systems Manager `infra` Manager-Stacks den Stack, der EC2 Instanzknoten, Sicherheitsgruppen, das Dateisystem Amazon FSx for Windows File Server und die IAM-Rolle umfasst.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.html) | AWS DevOps, DevOps Ingenieur | 

### Richten Sie den Windows SQL Server Always On FCI ein
<a name="set-up-the-windows-sql-server-always-on-fci"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie die Windows-Tools. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.html) | AWS DevOps, DevOps Ingenieur, DBA | 
| Stellen Sie die Cluster-Computerobjekte in den Active Directory-Domänendiensten vorab bereit. | [Folgen Sie den Anweisungen in der Windows Server-Dokumentation, um das Clusternamenobjekt (CNO) in den Active Directory-Domänendiensten (AD DS) und ein virtuelles Computerobjekt (VCO) für eine Clusterrolle vorab bereitzustellen.](https://learn.microsoft.com/en-us/windows-server/failover-clustering/prestage-cluster-adds) | AWS DevOps, DBA, Ingenieur DevOps  | 
| Erstellen Sie das WSFC. | Gehen Sie wie folgt vor, um den Windows Server Failover Clustering (WSFC) -Cluster zu erstellen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.html) | AWS DevOps, DBA, Ingenieur DevOps  | 
| Installieren Sie den SQL Server-Failover-Cluster. | Nachdem der WSFC-Cluster eingerichtet ist, installieren Sie den SQL Server-Cluster auf der primären Instanz (node1).[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.html)<pre>D:\setup.exe /Q  `<br />/ACTION=InstallFailoverCluster `<br />/IACCEPTSQLSERVERLICENSETERMS `<br />/FEATURES="SQL,IS,BC,Conn"  `<br />/INSTALLSHAREDDIR="C:\Program Files\Microsoft SQL Server"  `<br />/INSTALLSHAREDWOWDIR="C:\Program Files (x86)\Microsoft SQL Server"  `<br />/RSINSTALLMODE="FilesOnlyMode"  `<br />/INSTANCEID="MSSQLSERVER" `<br />/INSTANCENAME="MSSQLSERVER"  `<br />/FAILOVERCLUSTERGROUP="SQL Server (MSSQLSERVER)"  `<br />/FAILOVERCLUSTERIPADDRESSES="IPv4;<2nd Sec Private Ip node1>;Cluster Network 1;<subnet mask>"  `<br />/FAILOVERCLUSTERNETWORKNAME="<Fail over cluster Network Name>"  `<br />/INSTANCEDIR="C:\Program Files\Microsoft SQL Server"  `<br />/ENU="True"  `<br />/ERRORREPORTING=0  `<br />/SQMREPORTING=0  `<br />/SAPWD="<Domain User password>" `<br />/SQLCOLLATION="SQL_Latin1_General_CP1_CI_AS"  `<br />/SQLSYSADMINACCOUNTS="<domain\username>" `<br />/SQLSVCACCOUNT="<domain\username>"  /SQLSVCPASSWORD="<Domain User password>" `<br />/AGTSVCACCOUNT="<domain\username>"  /AGTSVCPASSWORD="<Domain User password>" `<br />/ISSVCACCOUNT="<domain\username>" /ISSVCPASSWORD="<Domain User password>"  `<br />/FTSVCACCOUNT="NT Service\MSSQLFDLauncher"  `<br />/INSTALLSQLDATADIR="\\<FSX DNS name>\share\Program Files\Microsoft SQL Server"  `<br />/SQLUSERDBDIR="\\<FSX DNS name>\share\data"  `<br />/SQLUSERDBLOGDIR="\\<FSX DNS name>\share\log" `<br />/SQLTEMPDBDIR="T:\tempdb"  `<br />/SQLTEMPDBLOGDIR="T:\log"  `<br />/SQLBACKUPDIR="\\<FSX DNS name>\share\SQLBackup" `<br />/SkipRules=Cluster_VerifyForErrors `<br />/INDICATEPROGRESS</pre> | AWS DevOps, DBA, Ingenieur DevOps  | 
| Fügen Sie dem Cluster einen sekundären Knoten hinzu. | Führen Sie den folgenden PowerShell Befehl aus, um SQL Server zum sekundären Knoten (Knoten 2) hinzuzufügen.<pre>D:\setup.exe /Q  `<br />/ACTION=AddNode `<br />/IACCEPTSQLSERVERLICENSETERMS `<br />/INSTANCENAME="MSSQLSERVER"  `<br />/FAILOVERCLUSTERGROUP="SQL Server (MSSQLSERVER)" `<br />/FAILOVERCLUSTERIPADDRESSES="IPv4;<2nd Sec Private Ip node2>;Cluster Network 2;<subnet mask>" `<br />/FAILOVERCLUSTERNETWORKNAME="<Fail over cluster Network Name>" `<br />/CONFIRMIPDEPENDENCYCHANGE=1 `<br />/SQLSVCACCOUNT="<domain\username>"  /SQLSVCPASSWORD="<Domain User password>" `<br />/AGTSVCACCOUNT="domain\username>"  /AGTSVCPASSWORD="<Domain User password>" `<br />/FTSVCACCOUNT="NT Service\MSSQLFDLauncher" `<br />/SkipRules=Cluster_VerifyForErrors `<br />/INDICATEPROGRESS</pre> | AWS DevOps, DBA, Ingenieur DevOps  | 
| Testen Sie den SQL Server FCI. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.html) | DBA, Ingenieur DevOps  | 

### Bereinigen von Ressourcen
<a name="clean-up-resources"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereinigen Sie die Ressourcen. | Verwenden Sie den CloudFormation AWS-Stack-Löschvorgang, um die Ressourcen zu bereinigen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.html)Nachdem das Löschen des Stacks abgeschlossen ist, befinden sich die Stapel im `DELETE_COMPLETE` Status. Stapel im `DELETE_COMPLETE` Status werden standardmäßig nicht in der CloudFormation Konsole angezeigt. Um gelöschte Stacks anzuzeigen, müssen Sie den [Stack-Ansichtsfilter ändern, wie unter Gelöschte Stacks auf der CloudFormation AWS-Konsole](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/cfn-console-view-deleted-stacks.html) anzeigen beschrieben.Wenn das Löschen fehlgeschlagen ist, befindet sich ein Stack im `DELETE_FAILED` Status. Lösungen finden Sie in der CloudFormation Dokumentation unter [Fehler beim Löschen des Stacks](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/troubleshooting.html#troubleshooting-errors-delete-stack-fails). | AWS DevOps, DBA, Ingenieur DevOps  | 

## Fehlerbehebung
<a name="set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
|  CloudFormation AWS-Vorlagenfehler | Wenn die CloudFormation Vorlage während der Bereitstellung fehlschlägt, gehen Sie wie folgt vor:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.html) | 
| Fehler beim Verbinden mit AWS Managed Microsoft AD | Gehen Sie wie folgt vor, um die Verbindungsprobleme zu beheben:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.html) | 

## Zugehörige Ressourcen
<a name="set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx-resources"></a>
+ [Vereinfachen Sie Ihre Hochverfügbarkeitsbereitstellungen von Microsoft SQL Server mit Amazon FSx for Windows File Server](https://aws.amazon.com/blogs/storage/simplify-your-microsoft-sql-server-high-availability-deployments-using-amazon-fsx-for-windows-file-server/)
+ [ FSx Für Windows File Server mit Microsoft SQL Server verwenden](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/sql-server.html)

# Verwenden Sie BMC Discovery-Abfragen, um Migrationsdaten für die Migrationsplanung zu extrahieren
<a name="use-bmc-discovery-queries-to-extract-migration-data-for-migration-planning"></a>

*Ben Tailor-Hamblin, Emma Baldry, Simon Cunningham und Shabnam Khan, Amazon Web Services*

## Zusammenfassung
<a name="use-bmc-discovery-queries-to-extract-migration-data-for-migration-planning-summary"></a>

Dieses Handbuch enthält Abfragebeispiele und Schritte, mit denen Sie mithilfe von BMC Discovery Daten aus Ihrer lokalen Infrastruktur und Ihren Anwendungen extrahieren können. Das Muster zeigt Ihnen, wie Sie BMC Discovery-Abfragen verwenden, um Ihre Infrastruktur zu scannen und Software-, Service- und Abhängigkeitsinformationen zu extrahieren. Die extrahierten Daten werden für die Bewertungs- und Mobilisierungsphasen einer groß angelegten Migration zur Amazon Web Services (AWS) Cloud benötigt. Sie können diese Daten verwenden, um wichtige Entscheidungen darüber zu treffen, welche Anwendungen im Rahmen Ihres Migrationsplans gemeinsam migriert werden sollen.

## Voraussetzungen und Einschränkungen
<a name="use-bmc-discovery-queries-to-extract-migration-data-for-migration-planning-prereqs"></a>

**Voraussetzungen**
+ Eine Lizenz für BMC Discovery (ehemals BMC ADDM) oder die SaaS-Version (Software as a Service) von BMC Helix Discovery
+ [On-Premise- oder SaaS-Version von BMC Discovery, installiert](https://docs.bmc.com/docs/discovery/221/installing-1050933835.html) 
**Anmerkung**  
Bei lokalen Versionen von BMC Discovery müssen Sie die Anwendung in einem Client-Netzwerk mit Zugriff auf alle Netzwerk- und Servergeräte installieren, die für eine Migration zwischen mehreren Rechenzentren in Frage kommen. Der Zugriff auf das Client-Netzwerk muss gemäß den Installationsanweisungen der Anwendung gewährt werden. Wenn das Scannen von Windows Server-Informationen erforderlich ist, müssen Sie ein Windows-Proxy-Manager-Gerät im Netzwerk einrichten.
+ [Netzwerkzugriff](https://docs.bmc.com/docs/discovery/221/network-ports-used-for-discovery-communications-1050933821.html), damit die Anwendung Geräte in mehreren Rechenzentren scannen kann, wenn Sie BMC Helix Discovery verwenden

**Versionen der Produkte**
+ BMC Discovery 22.2 (12.5)
+ BMC Discovery 22,1 (12,4)
+ BMC Discovery 21,3 (12,3)
+ BMC Discovery 21,05 (12,2)
+ BMC Discovery 20,08 (12,1)
+ BMC Discovery 20,02 (12,0)
+ BMC Discovery 11.3
+ BMC Discovery 11.2
+ BMC Discovery 11.1
+ BMC Discovery 11.0
+ BMC Atrium Discovery 10.2
+ BMC Atrium Discovery 10.1
+ BMC Atrium Discovery 10.0

## Architektur
<a name="use-bmc-discovery-queries-to-extract-migration-data-for-migration-planning-architecture"></a>

Das folgende Diagramm zeigt, wie Vermögensverwalter BMC Discovery-Abfragen verwenden können, um BMC-modellierte Anwendungen sowohl in SaaS- als auch in lokalen Umgebungen zu scannen.

![\[Architektur, die BMC Discovery zum Extrahieren von Software-, Service- und Abhängigkeitsinformationen verwendet.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/5e549882-8deb-4459-8891-e39bbf80e320/images/0ebb3e68-5828-45aa-86f4-c741c7b6cd94.jpeg)


Das Diagramm zeigt den folgenden Arbeitsablauf: Ein Asset Manager verwendet BMC Discovery oder BMC Helix Discovery, um Datenbank- und Softwareinstanzen zu scannen, die auf virtuellen Servern laufen, die auf mehreren physischen Servern gehostet werden. Das Tool kann Anwendungen mit Komponenten modellieren, die sich über mehrere virtuelle und physische Server erstrecken.

**Technologie-Stack**
+ BMC Discovery
+ BMC Helix Discovery

## Tools
<a name="use-bmc-discovery-queries-to-extract-migration-data-for-migration-planning-tools"></a>
+ [BMC Discovery](https://docs.bmc.com/xwiki/bin/view/IT-Operations-Management/Discovery/BMC-Discovery/) ist ein Tool zur Erkennung von Rechenzentren, mit dem Sie Ihr Rechenzentrum automatisch ermitteln können.
+ [BMC Helix Discovery](https://www.bmc.com/it-solutions/bmc-helix-discovery.html) ist ein SaaS-basiertes Erkennungs- und Abhängigkeitsmodellierungssystem, mit dem Sie Ihre Datenbestände und deren Abhängigkeiten dynamisch modellieren können.

## Best Practices
<a name="use-bmc-discovery-queries-to-extract-migration-data-for-migration-planning-best-practices"></a>

Es ist eine bewährte Methode, Anwendungs-, Abhängigkeits- und Infrastrukturdaten abzubilden, wenn Sie in die Cloud migrieren. Die Zuordnung hilft Ihnen dabei, die Komplexität Ihrer aktuellen Umgebung und die Abhängigkeiten zwischen den verschiedenen Komponenten zu verstehen.

Die Inventarinformationen, die diese Abfragen liefern, sind aus mehreren Gründen wichtig:

1. **Planung — Wenn** Sie die Abhängigkeiten zwischen den Komponenten verstehen, können Sie den Migrationsprozess effektiver planen. Beispielsweise müssen Sie möglicherweise zuerst bestimmte Komponenten migrieren, um sicherzustellen, dass andere erfolgreich migriert werden können.

1. **Risikobewertung** — Durch die Zuordnung der Abhängigkeiten zwischen den Komponenten können Sie potenzielle Risiken oder Probleme identifizieren, die während des Migrationsprozesses auftreten können. Sie könnten beispielsweise feststellen, dass bestimmte Komponenten auf veralteten oder nicht unterstützten Technologien basieren, die zu Problemen in der Cloud führen könnten.

1. **Cloud-Architektur** — Die Zuordnung Ihrer Anwendungs- und Infrastrukturdaten kann Ihnen auch dabei helfen, eine geeignete Cloud-Architektur zu entwerfen, die Ihren organisatorischen Anforderungen entspricht. Beispielsweise müssen Sie möglicherweise eine mehrstufige Architektur entwerfen, um Hochverfügbarkeits- oder Skalierbarkeitsanforderungen zu erfüllen.

Insgesamt ist die Zuordnung von Anwendungs-, Abhängigkeits- und Infrastrukturdaten ein entscheidender Schritt im Cloud-Migrationsprozess. Die Kartierung kann Ihnen helfen, Ihre aktuelle Umgebung besser zu verstehen, potenzielle Probleme oder Risiken zu identifizieren und eine geeignete Cloud-Architektur zu entwerfen.

## Epen
<a name="use-bmc-discovery-queries-to-extract-migration-data-for-migration-planning-epics"></a>

### Identifizieren und bewerten Sie Discovery-Tools
<a name="identify-and-evaluate-discovery-tooling"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie die ITSM-Besitzer. | Identifizieren Sie die Eigentümer des IT Service Management (ITSM) (in der Regel, indem Sie sich an die operativen Support-Teams wenden). | Leiter der Migration | 
| Überprüfen Sie CMDB.  | Identifizieren Sie die Anzahl der Konfigurationsmanagement-Datenbanken (CMDBs), die Inventarinformationen enthalten, und identifizieren Sie dann die Quellen dieser Informationen. | Leiter der Migration | 
| Identifizieren Sie Discovery-Tools und prüfen Sie, ob BMC Discovery verwendet wird. | Wenn Ihre Organisation BMC Discovery verwendet, um Daten über Ihre Umgebung an das CMDB-Tool zu senden, überprüfen Sie den Umfang und die Reichweite der Scans. Überprüfen Sie beispielsweise, ob BMC Discovery alle Rechenzentren scannt und ob sich die Access-Server in Perimeterzonen befinden. | Leiter der Migration | 
| Prüfen Sie den Stand der Anwendungsmodellierung. | Prüfen Sie, ob Anwendungen in BMC Discovery modelliert wurden. Wenn nicht, empfehlen Sie die Verwendung des BMC Discovery-Tools, um zu modellieren, welche laufenden Softwareinstanzen eine Anwendung und einen Geschäftsdienst bereitstellen. | Migrationsingenieur, Migrationsleiter | 

### Extrahieren Sie Infrastrukturdaten
<a name="extract-infrastructure-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Extrahieren Sie Daten auf physischen und virtuellen Servern. | Um Daten auf den von BMC Discovery gescannten physischen und virtuellen Servern zu extrahieren, verwenden Sie [Query Builder](https://docs.bmc.com/docs/discovery/221/query-builder-1051985747.html), um die folgende Abfrage auszuführen:<pre>search Host show key as 'Serverid', virtual, name as 'HOSTNAME', os_type as 'osName', os_version as 'OS Version', num_logical_processors as 'Logical Processor Counts', cores_per_processor as 'Cores per Processor', logical_ram as 'Logical RAM', #Consumer:StorageUse:Provider:DiskDrive.size as 'Size'</pre>Sie können die extrahierten Daten verwenden, um die geeigneten Instanzgrößen für die Migration zu ermitteln. | Migrationsingenieur, Migrationsleiter | 
| Extrahieren Sie Daten aus modellierten Anwendungen. | Wenn Ihre Anwendungen in BMC Discovery modelliert werden, können Sie Daten über die Server extrahieren, auf denen die Anwendungssoftware ausgeführt wird. Um die Servernamen abzurufen, verwenden Sie [Query Builder](https://docs.bmc.com/docs/discovery/221/query-builder-1051985747.html), um die folgenden Abfragen auszuführen:<pre>search SoftwareInstance show key as 'ApplicationID', #RunningSoftware:HostedSoftware:Host:Host.key as 'ReferenceID', type, name</pre>Anwendungen werden in BMC Discovery anhand einer Sammlung laufender Softwareinstanzen modelliert. Die Anwendung ist von allen Servern abhängig, auf denen die Anwendungssoftware ausgeführt wird. | Besitzer der BMC Discovery-Anwendung | 
| Extrahieren Sie Daten aus Datenbanken. | Um eine Liste aller gescannten Datenbanken und der Server, auf denen diese Datenbanken laufen, zu erhalten, verwenden Sie [Query Builder](https://docs.bmc.com/docs/discovery/221/query-builder-1051985747.html), um die folgende Abfrage auszuführen:<pre>search Database show key as 'Key', name, type as 'Source Engine Type', #Detail:Detail:ElementWithDetail:SoftwareInstance.name as 'Software Instance', #Detail:Detail:ElementWithDetail:SoftwareInstance.product_version as 'Product Version', #Detail:Detail:ElementWithDetail:SoftwareInstance.edition as 'Edition', #Detail:Detail:ElementWithDetail:SoftwareInstance.#RunningSoftware:HostedSoftware:Host:Host.key as 'ServerID'</pre> | Besitzer der App | 
| Extrahieren Sie Daten zur Serverkommunikation. | Um Informationen über die gesamte Netzwerkkommunikation zwischen Servern abzurufen, die von BMC Discovery aus historischen Netzwerkkommunikationsprotokollen gesammelt wurden, verwenden Sie [Query Builder](https://docs.bmc.com/docs/discovery/221/query-builder-1051985747.html), um die folgende Abfrage auszuführen:<pre>search Host<br /> TRAVERSE InferredElement:Inference:Associate:DiscoveryAccess<br /> TRAVERSE DiscoveryAccess:DiscoveryAccessResult:DiscoveryResult:NetworkConnectionList<br /> TRAVERSE List:List:Member:DiscoveredNetworkConnection<br /> PROCESS WITH networkConnectionInfo</pre> | Besitzer der BMC Discovery-Anwendung | 
| Extrahieren Sie Daten zur Anwendungserkennung. | Um Informationen zu Anwendungsabhängigkeiten zu erhalten, verwenden Sie [Query Builder](https://docs.bmc.com/docs/discovery/221/query-builder-1051985747.html), um die folgende Abfrage auszuführen:<pre>search SoftwareInstance show key as 'SRC App ID', #Dependant:Dependency:DependedUpon:SoftwareInstance.key as 'DEST App ID'</pre> | Besitzer der BMC Discovery-Anwendung | 
| Extrahieren Sie Daten zu Unternehmensdienstleistungen. | Um Daten zu Unternehmensdiensten zu extrahieren, die von Hosts bereitgestellt werden, verwenden Sie [Query Builder](https://docs.bmc.com/docs/discovery/221/query-builder-1051985747.html), um die folgende Abfrage auszuführen:<pre>search Host show name, #Host:HostedSoftware:AggregateSoftware:BusinessService.name as 'Name'</pre> | Besitzer der BMC Discovery-Anwendung | 

## Fehlerbehebung
<a name="use-bmc-discovery-queries-to-extract-migration-data-for-migration-planning-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Eine Abfrage kann nicht ausgeführt werden oder enthält nicht aufgefüllte Spalten. | Überprüfen Sie die Asset-Datensätze in BMC Discovery und ermitteln Sie, welche Felder Sie benötigen. Ersetzen Sie dann diese Felder in der Abfrage mithilfe des [Abfrage-Generators](https://docs.bmc.com/docs/discovery/221/query-builder-1051985747.html). | 
| Die Details einer abhängigen Anlage werden nicht ausgefüllt. | Dies ist wahrscheinlich auf Zugriffsberechtigungen oder Netzwerkkonnektivität zurückzuführen. Das Discovery-Tool verfügt möglicherweise nicht über die erforderlichen Berechtigungen für den Zugriff auf bestimmte Ressourcen, insbesondere wenn sie sich in verschiedenen Netzwerken oder in unterschiedlichen Umgebungen befinden.Wir empfehlen Ihnen, eng mit Experten für die Datenermittlung zusammenzuarbeiten, um sicherzustellen, dass alle relevanten Ressourcen identifiziert werden. | 

## Zugehörige Ressourcen
<a name="use-bmc-discovery-queries-to-extract-migration-data-for-migration-planning-resources"></a>

**Referenzen**
+ [Anspruch auf BMC Discovery-Lizenzierung](https://docs.bmc.com/docs/discovery/bmc-discovery-licensing-entitlement-531336348.html) (BMC-Dokumentation)
+ [Funktionen und Komponenten von BMC Discovery](https://docs.bmc.com/docs/discovery/221/bmc-discovery-features-and-components-1052418000.html) (BMC-Dokumentation)
+ [BMC Discovery-Benutzerhandbuch (BMC-Dokumentation](https://docs.bmc.com/xwiki/bin/view/IT-Operations-Management/Discovery/BMC-Discovery/))
+ [Suchen nach Daten (auf BMC Discovery) (BMC-Dokumentation)](https://docs.bmc.com/docs/discovery/120/searching-for-data-911457232.html)
+ [Portfolioerkennung und -analyse für die Migration](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-portfolio-discovery/welcome.html) (AWS Prescriptive Guidance)

**Anleitungen und Videos**
+ [BMC Discovery: Webinar — Bewährte Methoden für Berichtsabfragen (Teil 1) (YouTube)](https://www.youtube.com/watch?v=iwXy6x40kO8)

# Umziehen
<a name="migration-relocate-pattern-list"></a>

**Topics**
+ [Migrieren Sie eine Amazon RDS for Oracle Oracle-Datenbank zu einer anderen AWS-Konto und AWS-Region verwenden Sie sie AWS DMS für die laufende Replikation](migrate-an-amazon-rds-for-oracle-database-to-another-aws-account-and-aws-region-using-aws-dms-for-ongoing-replication.md)
+ [Migrieren Sie eine Amazon RDS-DB-Instance zu einer anderen VPC oder einem anderen Konto](migrate-an-amazon-rds-db-instance-to-another-vpc-or-account.md)
+ [Migrieren Sie einen Amazon Redshift Redshift-Cluster in eine AWS-Region in China](migrate-an-amazon-redshift-cluster-to-an-aws-region-in-china.md)
+ [Transportieren Sie PostgreSQL-Datenbanken zwischen zwei Amazon RDS-DB-Instances mithilfe von pg\$1transport](transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport.md)

# Migrieren Sie eine Amazon RDS for Oracle Oracle-Datenbank zu einer anderen AWS-Konto und AWS-Region verwenden Sie sie AWS DMS für die laufende Replikation
<a name="migrate-an-amazon-rds-for-oracle-database-to-another-aws-account-and-aws-region-using-aws-dms-for-ongoing-replication"></a>

*Durga Prasad Cheepuri und Eduardo Valentim, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-amazon-rds-for-oracle-database-to-another-aws-account-and-aws-region-using-aws-dms-for-ongoing-replication-summary"></a>


| 
| 
| Warnung: IAM-Benutzer verfügen über langfristige Anmeldeinformationen, was ein Sicherheitsrisiko darstellt. Um dieses Risiko zu minimieren, empfehlen wir, diesen Benutzern nur die Berechtigungen zu gewähren, die sie für die Ausführung der Aufgabe benötigen, und diese Benutzer zu entfernen, wenn sie nicht mehr benötigt werden. | 
| --- |

Dieses Muster führt Sie durch die Schritte zur Migration einer Quelldatenbank von Amazon Relational Database Service (Amazon RDS) für Oracle zu einer anderen AWS-Konto und. AWS-Region Das Muster verwendet einen DB-Snapshot für eine einmalige vollständige Datenladung und aktiviert AWS Database Migration Service (AWS DMS) für die fortlaufende Replikation.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-amazon-rds-for-oracle-database-to-another-aws-account-and-aws-region-using-aws-dms-for-ongoing-replication-prereqs"></a>

**Voraussetzungen**
+ Eine aktive Datenbank AWS-Konto , die die Amazon RDS for Oracle Oracle-Quelldatenbank enthält, die mit einem anderen Schlüssel AWS Key Management Service (AWS KMS) verschlüsselt wurde
+ Aktiv AWS-Konto in einer anderen Datenbank als AWS-Region der Quelldatenbank, die für die Amazon RDS for Oracle Oracle-Zieldatenbank verwendet werden soll
+ Virtual Private Cloud (VPC) -Peering zwischen Quelle und Ziel VPCs
+ Vertrautheit mit [der Verwendung einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html)
+ Vertrautheit mit [der Verwendung einer Oracle-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Oracle.html) 

**Produktversionen**
+ Oracle-Versionen 11g (Versionen 11.2.0.3.v1 und höher) und bis zu 12.2 und 18c. Die aktuelle Liste der unterstützten Versionen und Editionen finden Sie in der Dokumentation unter [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) und mit [Verwenden einer Oracle-Datenbank als Ziel](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Oracle.html) für. AWS DMS AWS Informationen zu Oracle-Versionen, die von Amazon RDS unterstützt werden, finden Sie unter [Oracle auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html). 

## Architektur
<a name="migrate-an-amazon-rds-for-oracle-database-to-another-aws-account-and-aws-region-using-aws-dms-for-ongoing-replication-architecture"></a>

**Quell- und Zieltechnologie-Stacks**
+ Amazon RDS for Oracle Oracle-DB-Instance

![\[AWS-Quellkonto, das eine Verbindung zum AWS-Zielkonto herstellt, das Quell- und Zielregionen enthält\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/5ecd5359-884e-455c-b5d0-ef08eda2ea1f/images/e17fa7fe-d924-4f35-9707-b93572fa1227.png)


**Architektur für fortlaufende Replikation**

![\[Datenbank auf einer EC2 Instance, die über VPC-Peering eine Verbindung zu einer Replikationsinstanz und Amazon RDS herstellt.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/5ecd5359-884e-455c-b5d0-ef08eda2ea1f/images/b60b3500-5d29-487a-bbab-0ae9f3f386aa.png)


## Tools
<a name="migrate-an-amazon-rds-for-oracle-database-to-another-aws-account-and-aws-region-using-aws-dms-for-ongoing-replication-tools"></a>

**Tools, die für das einmalige vollständige Laden von Daten verwendet werden**
+ [Amazon Relational Database Service (Amazon RDS)](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) erstellt einen Speicher-Volume-Snapshot Ihrer DB-Instance und sichert dabei die gesamte DB-Instance und nicht nur einzelne Datenbanken. Beim Erstellen eines DB-Snapshots wählen Sie die DB-Instance aus, die gesichert werden soll, und benennen den DB-Snapshot, damit Sie später mit diesem eine Wiederherstellung ausführen können. Die Zeit, die für die Erstellung eines Snapshots benötigt wird, hängt von der Größe Ihrer Datenbanken ab. Da der Snapshot das gesamte Speichervolume umfasst, wirkt sich die Größe von Dateien, wie z. B. temporäre Dateien, auch auf die Zeit aus, die zum Erstellen des Snapshots benötigt wird. Weitere Informationen zur Verwendung von DB-Snapshots finden Sie unter [Erstellen eines DB-Snapshots](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_CreateSnapshot.html) in der Amazon RDS-Dokumentation. 
+ [AWS Key Management Service (AWS KMS)](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html) erstellt einen**** Schlüssel für die**** Amazon**** RDS-Verschlüsselung. Wenn Sie eine verschlüsselte DB-Instance erstellen, können Sie auch die [AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html)Schlüssel-ID für Ihren Verschlüsselungsschlüssel angeben. Wenn Sie keine [AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html)Schlüssel-ID angeben, verwendet Amazon RDS Ihren Standard-Verschlüsselungsschlüssel für Ihre neue DB-Instance. [AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html)erstellt Ihren Standard-Verschlüsselungsschlüssel für Ihre AWS-Konto. Ihr AWS-Konto hat für jeden einen anderen Standard-Verschlüsselungsschlüssel AWS-Region. Für dieses Muster sollte die Amazon RDS-DB-Instance mit dem nicht standardmäßigen [AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html)Schlüssel verschlüsselt werden. Weitere Informationen zur Verwendung von [AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html)Schlüsseln für die Amazon RDS-Verschlüsselung finden Sie unter [Verschlüsseln von Amazon RDS-Ressourcen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Overview.Encryption.html) in der Amazon RDS-Dokumentation.

**Tools, die für die laufende Replikation verwendet werden**
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) wird verwendet, um laufende Änderungen zu replizieren und die Quell- und Zieldatenbank synchron zu halten. Weitere Informationen zur Verwendung AWS DMS für die laufende Replikation finden Sie in der AWS DMS Dokumentation unter [Arbeiten mit einer AWS DMS Replikationsinstanz](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_ReplicationInstance.html). 

## Epen
<a name="migrate-an-amazon-rds-for-oracle-database-to-another-aws-account-and-aws-region-using-aws-dms-for-ongoing-replication-epics"></a>

### Konfiguriere deine Quelle AWS-Konto
<a name="configure-your-source-aws-account"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie die Oracle-DB-Quellinstanz vor. | Lassen Sie die Amazon RDS for Oracle DB-Instance im ARCHIVELOG-Modus laufen und legen Sie den Aufbewahrungszeitraum fest. Einzelheiten finden Sie unter [Arbeiten mit einer AWS verwalteten Oracle-Datenbank als Quelle für](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html#CHAP_Source.Oracle.Amazon-Managed). AWS DMS | DBA | 
| Legen Sie die zusätzliche Protokollierung für die Oracle-DB-Quellinstanz fest. | Legen Sie die zusätzliche Protokollierung auf Datenbank- und Tabellenebene für die Amazon RDS for Oracle Oracle-DB-Instance fest. Einzelheiten finden Sie unter [Arbeiten mit einer AWS verwalteten Oracle-Datenbank](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html#CHAP_Source.Oracle.Amazon-Managed) als Quelle für. AWS DMS | DBA | 
| Aktualisieren Sie die AWS KMS Schlüsselrichtlinie im Quellkonto. | Aktualisieren Sie die AWS KMS Schlüsselrichtlinie in der Quelle AWS-Konto , damit das Ziel AWS-Konto den verschlüsselten Amazon AWS KMS RDS-Schlüssel verwenden kann. Einzelheiten finden Sie in der [AWS KMS Dokumentation](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html#key-policy-modifying-external-accounts). | SysAdmin | 
| Erstellen Sie einen manuellen Amazon RDS-DB-Snapshot der Quell-DB-Instance. |  | AWS-IAM-Benutzer | 
| Teilen Sie den manuellen, verschlüsselten Amazon RDS-Snapshot mit dem Ziel AWS-Konto. | Einzelheiten finden Sie unter [Einen DB-Snapshot teilen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_ShareSnapshot.html). | AWS-IAM-Benutzer | 

### Konfigurieren Sie Ihr Ziel AWS-Konto
<a name="configure-your-target-aws-account"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fügen Sie eine Richtlinie bei. | Fügen Sie im Ziel AWS-Konto dem Root-IAM-Benutzer eine AWS Identity and Access Management (IAM-) Richtlinie hinzu, damit der IAM-Benutzer mithilfe des gemeinsamen Schlüssels einen verschlüsselten DB-Snapshot kopieren kann. AWS KMS  | SysAdmin | 
| Wechseln Sie zur Quelle. AWS-Region |  | AWS-IAM-Benutzer | 
| Kopieren Sie den geteilten Snapshot. | Wählen Sie in der Amazon RDS-Konsole im Bereich **Snapshots** die Option **Für mich freigegeben** und wählen Sie den geteilten Snapshot aus. Kopieren Sie den Snapshot in dieselbe Datenbank AWS-Region wie die Quelldatenbank, indem Sie den Amazon-Ressourcennamen (ARN) für den von der Quelldatenbank verwendeten AWS KMS Schlüssel verwenden. Einzelheiten finden Sie unter [Kopieren eines DB-Snapshots](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_CopySnapshot.html). | AWS-IAM-Benutzer | 
| Wechseln Sie zum Ziel AWS-Region und erstellen Sie einen neuen AWS KMS Schlüssel. |  | AWS-IAM-Benutzer | 
| Kopieren Sie den Snapshot. | Wechseln Sie zur Quelle AWS-Region. Wählen Sie auf der Amazon RDS-Konsole im Bereich **Snapshots** die Option **Owned by Me** und wählen Sie den kopierten Snapshot aus. Kopieren Sie den Snapshot auf das Ziel, AWS-Region indem Sie den AWS KMS Schlüssel für das neue Ziel AWS-Region verwenden. | AWS-IAM-Benutzer | 
| Stellen Sie den Snapshot wieder her. | Wechseln Sie zum Ziel AWS-Region. Wählen Sie auf der Amazon RDS-Konsole im Bereich **Snapshots** die Option **Owned by Me** aus. Wählen Sie den kopierten Snapshot aus und stellen Sie ihn in einer Amazon RDS for Oracle DB-Instance wieder her. Einzelheiten finden Sie unter [Aus einem DB-Snapshot wiederherstellen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_RestoreFromSnapshot.html). | AWS-IAM-Benutzer | 

### Bereiten Sie Ihre Quelldatenbank für die laufende Replikation vor
<a name="prepare-your-source-database-for-ongoing-replication"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen Oracle-Benutzer mit den entsprechenden Berechtigungen. | Erstellen Sie einen Oracle-Benutzer mit den erforderlichen Rechten für Oracle als Quelle für AWS DMS. Einzelheiten finden Sie in der [AWS DMS Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html). | DBA | 
| Konfigurieren Sie die Quelldatenbank für Oracle LogMiner oder Oracle Binary Reader. |  | DBA | 

### Bereiten Sie Ihre Zieldatenbank für die laufende Replikation vor
<a name="prepare-your-target-database-for-ongoing-replication"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen Oracle-Benutzer mit den entsprechenden Berechtigungen. | Erstellen Sie einen Oracle-Benutzer mit den erforderlichen Rechten für Oracle als Ziel für AWS DMS. Einzelheiten finden Sie in der [AWS DMS Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Oracle.html#CHAP_Target.Oracle.Privileges). | DBA | 

### Komponenten erstellen AWS DMS
<a name="create-dms-components"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Replikationsinstanz im Ziel AWS-Region. | Erstellen Sie eine Replikationsinstanz in der VPC des Ziels AWS-Region. Einzelheiten finden Sie in der [AWS DMS Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html#CHAP_GettingStarted.ReplicationInstance). | AWS-IAM-Benutzer | 
| Erstellen Sie Quell- und Zielendpunkte mit der erforderlichen Verschlüsselung und testen Sie Verbindungen. | Einzelheiten finden Sie in der [AWS DMS Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html#CHAP_GettingStarted.Endpoints). | DBA | 
| Erstellen Sie Replikationsaufgaben. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-amazon-rds-for-oracle-database-to-another-aws-account-and-aws-region-using-aws-dms-for-ongoing-replication.html)[Einzelheiten finden Sie in der AWS DMS Dokumentation.](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html#CHAP_GettingStarted.Tasks) | IAM-Benutzer | 
| Starten Sie die Aufgaben und überwachen Sie sie. | Einzelheiten finden Sie in der [AWS DMS Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Monitoring.html). | AWS-IAM-Benutzer | 
| Aktivieren Sie bei Bedarf die Validierung der Aufgabe. | Beachten Sie, dass die Aktivierung der Validierung Auswirkungen auf die Leistung der Replikation hat. Einzelheiten finden Sie in der [AWS DMS Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Validating.html). | AWS-IAM-Benutzer | 

## Zugehörige Ressourcen
<a name="migrate-an-amazon-rds-for-oracle-database-to-another-aws-account-and-aws-region-using-aws-dms-for-ongoing-replication-resources"></a>
+ [Änderung einer wichtigen Richtlinie](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html#key-policy-modifying-external-accounts)
+ [Manuellen Amazon RDS-DB-Snapshot erstellen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_CreateSnapshot.html)
+ [Einen manuellen Amazon RDS-DB-Snapshot teilen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_ShareSnapshot.html)
+ [Einen Snapshot kopieren](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_CopySnapshot.html) 
+ [Wiederherstellung aus einem Amazon RDS-DB-Snapshot](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_RestoreFromSnapshot.html) 
+ [Erste Schritte mit AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html) 
+ [Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) 
+ [Verwendung einer Oracle-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Oracle.html) 
+ [AWS DMS Einrichtung mit VPC-Peering](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_ReplicationInstance.VPC.html#CHAP_ReplicationInstance.VPC.Configurations.ScenarioVPCPeer) 
+ [Wie teile ich manuelle Amazon RDS-DB-Snapshots oder DB-Cluster-Snapshots mit anderen? AWS-Konto](https://aws.amazon.com/premiumsupport/knowledge-center/rds-snapshots-share-account/) (Artikel im AWS Knowledge Center) 

# Migrieren Sie eine Amazon RDS-DB-Instance zu einer anderen VPC oder einem anderen Konto
<a name="migrate-an-amazon-rds-db-instance-to-another-vpc-or-account"></a>

*Dhrubajyoti Mukherjee, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-amazon-rds-db-instance-to-another-vpc-or-account-summary"></a>

Dieses Muster bietet Anleitungen für die Migration einer Amazon Relational Database Service (Amazon RDS) -DB-Instance von einer Virtual Private Cloud (VPC) zu einer anderen im selben AWS-Konto oder von einem AWS-Konto zu einem anderen AWS-Konto.

Dieses Muster ist nützlich, wenn Sie Ihre Amazon RDS-DB-Instances aus Trennungs- oder Sicherheitsgründen auf eine andere VPC oder ein anderes Konto migrieren möchten (z. B. wenn Sie Ihren Anwendungsstapel und Ihre Datenbank in unterschiedlichen Ordnern platzieren möchten VPCs). 

Die Migration einer DB-Instance auf ein anderes AWS-Konto umfasst Schritte wie das Erstellen eines manuellen Snapshots, dessen gemeinsame Nutzung und das Wiederherstellen des Snapshots im Zielkonto. Dieser Vorgang kann je nach Datenbankänderungen und Transaktionsraten zeitaufwändig sein. Außerdem führt er zu Datenbankausfällen. Planen Sie die Migration daher im Voraus. Erwägen Sie eine blue/green Bereitstellungsstrategie, um Ausfallzeiten zu minimieren. Alternativ können Sie den AWS Data Migration Service (AWS DMS) testen, um die Ausfallzeiten für die Änderung zu minimieren. Dieses Muster deckt diese Option jedoch nicht ab. Weitere Informationen finden Sie in der [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html).

## Voraussetzungen und Einschränkungen
<a name="migrate-an-amazon-rds-db-instance-to-another-vpc-or-account-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ AWS Identity and Access Management (IAM) -Berechtigungen, die für die VPC, Subnetze und die Amazon RDS-Konsole erforderlich sind

**Einschränkungen**
+ Änderungen an einer VPC führen zu einem Neustart der Datenbank, was zu Anwendungsausfällen führt. Wir empfehlen, die Migration in Zeiten geringer Spitzenzeiten durchzuführen.
+ Einschränkungen bei der Migration von Amazon RDS zu einer anderen VPC:
  + Bei der DB-Instance, die Sie migrieren, muss es sich um eine einzelne Instance ohne Standby handeln. Sie darf kein Mitglied eines Clusters sein.
  + Amazon RDS darf sich nicht in mehreren Availability Zones befinden.
  + Amazon RDS darf keine Read Replicas haben.
  + Die in der Ziel-VPC erstellte Subnetzgruppe muss Subnetze aus der Availability Zone haben, in der die Quelldatenbank läuft.
+ Einschränkungen bei der Migration von Amazon RDS auf ein anderes AWS-Konto:
  + Das Teilen von Snapshots, die mit dem Standard-Serviceschlüssel für Amazon RDS verschlüsselt sind, wird derzeit nicht unterstützt.

## Architektur
<a name="migrate-an-amazon-rds-db-instance-to-another-vpc-or-account-architecture"></a>

**Migration zu einer VPC im selben AWS-Konto**

Das folgende Diagramm zeigt den Workflow für die Migration einer Amazon RDS-DB-Instance zu einer anderen VPC im selben AWS-Konto.

![\[Workflow für die Migration einer Amazon RDS-DB-Instance zu einer anderen VPC im selben AWS-Konto\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/dabcee69-9cc6-47f9-9964-635e349caaaf/images/73e16544-6276-4f03-9ae2-42b8c7c20315.png)


Die Schritte bestehen aus den folgenden Schritten. Ausführliche Anweisungen finden Sie im Abschnitt [Epics](#migrate-an-amazon-rds-db-instance-to-another-vpc-or-account-epics).

1. Erstellen Sie eine DB-Subnetzgruppe in der Ziel-VPC. Eine DB-Subnetzgruppe ist eine Sammlung von Subnetzen, mit denen Sie beim Erstellen von DB-Instances eine bestimmte VPC angeben können.

1. Konfigurieren Sie die Amazon RDS-DB-Instance in der Quell-VPC für die Verwendung der neuen DB-Subnetzgruppe.

1. Wenden Sie die Änderungen an, um die Amazon RDS-Datenbank auf die Ziel-VPC zu migrieren.

**Zu einem anderen AWS-Konto migrieren**

Das folgende Diagramm zeigt den Arbeitsablauf für die Migration einer Amazon RDS-DB-Instance auf ein anderes AWS-Konto.

![\[Workflow für die Migration einer Amazon RDS-DB-Instance auf ein anderes AWS-Konto\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/dabcee69-9cc6-47f9-9964-635e349caaaf/images/5536e69e-3965-4ca2-8a0b-2573659b5f8f.png)


Die Schritte bestehen aus den folgenden Schritten. Ausführliche Anweisungen finden Sie im Abschnitt [Epics](#migrate-an-amazon-rds-db-instance-to-another-vpc-or-account-epics).

1. Greifen Sie im AWS-Quellkonto auf die Amazon RDS-DB-Instance zu.

1. Erstellen Sie einen Amazon RDS-Snapshot im AWS-Quellkonto.

1. Teilen Sie den Amazon RDS-Snapshot mit dem AWS-Zielkonto.

1. Greifen Sie auf den Amazon RDS-Snapshot im AWS-Zielkonto zu.

1. Erstellen Sie eine Amazon RDS-DB-Instance im AWS-Zielkonto.

## Tools
<a name="migrate-an-amazon-rds-db-instance-to-another-vpc-or-account-tools"></a>

**AWS-Services**
+ [Amazon Relational Database Service (Amazon RDS)](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Datenbank in der AWS-Cloud.
+ [Amazon Virtual Private Cloud (Amazon VPC)](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html) hilft Ihnen dabei, AWS-Ressourcen in einem von Ihnen definierten virtuellen Netzwerk zu starten. Dieses virtuelle Netzwerk ähnelt einem herkömmlichen Netzwerk, das Sie in Ihrem eigenen Rechenzentrum betreiben würden, mit den Vorteilen der skalierbaren Infrastruktur von AWS.

## Best Practices
<a name="migrate-an-amazon-rds-db-instance-to-another-vpc-or-account-best-practices"></a>
+ Wenn Datenbankausfälle bei der Migration einer Amazon RDS-DB-Instance auf ein anderes Konto ein Problem darstellen, empfehlen wir Ihnen, [AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) zu verwenden. Dieser Service bietet Datenreplikation, was zu einer Ausfallzeit von weniger als fünf Minuten führt.

## Epen
<a name="migrate-an-amazon-rds-db-instance-to-another-vpc-or-account-epics"></a>

### Migrieren Sie zu einer anderen VPC im selben AWS-Konto
<a name="migrate-to-a-different-vpc-in-the-same-aws-account"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer neuen VPC. | Erstellen Sie auf der [Amazon VPC-Konsole](https://console.aws.amazon.com/vpc/) eine neue VPC und Subnetze mit den gewünschten Eigenschaften und IP-Adressbereichen. Eine ausführliche Anleitung finden Sie in der [Amazon VPC-Dokumentation](https://docs.aws.amazon.com/vpc/latest/userguide/create-vpc.html). | Administrator | 
| Erstellen einer DB-Subnetzgruppe | Auf der [Amazon RDS-Konsole](https://console.aws.amazon.com/rds/):[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-amazon-rds-db-instance-to-another-vpc-or-account.html)Weitere Informationen finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_VPC.WorkingWithRDSInstanceinaVPC.html#USER_VPC.CreateDBSubnetGroup). | Administrator | 
| Ändern Sie die Amazon RDS-DB-Instance so, dass sie die neue Subnetzgruppe verwendet. | Auf der Amazon RDS-Konsole:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-amazon-rds-db-instance-to-another-vpc-or-account.html)Wenn die Migration zur Ziel-VPC abgeschlossen ist, wird die Standardsicherheitsgruppe der Ziel-VPC der Amazon RDS-DB-Instance zugewiesen. Sie können eine neue Sicherheitsgruppe für diese VPC mit den erforderlichen eingehenden und ausgehenden Regeln für Ihre DB-Instance konfigurieren.Alternativ können Sie die AWS-Befehlszeilenschnittstelle (AWS CLI) verwenden, um die Migration zur Ziel-VPC durchzuführen, indem Sie die neue VPC-Sicherheitsgruppen-ID explizit angeben. Beispiel:<pre>aws rds modify-db-instance \<br />    --db-instance-identifier testrds \<br />    --db-subnet-group-name new-vpc-subnet-group \<br />    --vpc-security-group-ids sg-idxxxx \<br />    --apply-immediately</pre> | Administrator | 

### Zu einem anderen AWS-Konto migrieren
<a name="migrate-to-a-different-aws-account"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine neue VPC und Subnetzgruppe im AWS-Zielkonto. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-amazon-rds-db-instance-to-another-vpc-or-account.html) | Administrator | 
| Teilen Sie einen manuellen Snapshot der Datenbank und teilen Sie ihn mit dem Zielkonto. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-amazon-rds-db-instance-to-another-vpc-or-account.html) | Administrator | 
| Starten Sie eine neue Amazon RDS-DB-Instance. | Starten Sie eine neue Amazon RDS-DB-Instance aus dem gemeinsam genutzten Snapshot im AWS-Zielkonto. Anweisungen finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_RestoreFromSnapshot.html). | Administrator | 

## Zugehörige Ressourcen
<a name="migrate-an-amazon-rds-db-instance-to-another-vpc-or-account-resources"></a>
+ [Amazon VPC-Dokumentation](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html)
+ [Dokumentation zu Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html)
+ [Wie ändere ich die VPC für eine RDS-DB-Instance?](https://aws.amazon.com/premiumsupport/knowledge-center/change-vpc-rds-db-instance/) (Artikel AWS re:POST)
+ [Wie übertrage ich das Eigentum an Amazon RDS-Ressourcen auf ein anderes AWS-Konto?](https://aws.amazon.com/premiumsupport/knowledge-center/account-transfer-rds/) (Artikel AWS re:POST)
+ [Wie teile ich manuelle Amazon RDS-DB-Snapshots oder Aurora-DB-Cluster-Snapshots mit einem anderen AWS-Konto?](https://aws.amazon.com/premiumsupport/knowledge-center/rds-snapshots-share-account/) (Artikel AWS re:POST)
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)

# Migrieren Sie einen Amazon Redshift Redshift-Cluster in eine AWS-Region in China
<a name="migrate-an-amazon-redshift-cluster-to-an-aws-region-in-china"></a>

*Jing Yan, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-amazon-redshift-cluster-to-an-aws-region-in-china-summary"></a>

Dieses Muster bietet einen step-by-step Ansatz zur Migration eines Amazon Redshift Redshift-Clusters aus einer anderen AWS-Region in China.

Dieses Muster verwendet SQL-Befehle, um alle Datenbankobjekte neu zu erstellen, und verwendet den Befehl UNLOAD, um diese Daten von Amazon Redshift in einen Amazon Simple Storage Service (Amazon S3) -Bucket in der Quellregion zu verschieben. Die Daten werden dann in einen S3-Bucket in der AWS-Region in China migriert. Der COPY-Befehl wird verwendet, um Daten aus dem S3-Bucket zu laden und in den Amazon Redshift Redshift-Zielcluster zu übertragen.

Amazon Redshift unterstützt derzeit keine regionsübergreifenden Funktionen wie das Kopieren von Snapshots in AWS-Regionen in China. Dieses Muster bietet eine Möglichkeit, diese Einschränkung zu umgehen. Sie können die Schritte in diesem Muster auch rückgängig machen, um Daten von einer AWS-Region in China in eine andere AWS-Region zu migrieren.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-amazon-redshift-cluster-to-an-aws-region-in-china-prereqs"></a>

*Voraussetzungen*
+ Aktive AWS-Konten sowohl in einer Region China als auch in einer AWS-Region außerhalb China
+ Bestehende Amazon Redshift Redshift-Cluster sowohl in einer Region China als auch in einer AWS-Region außerhalb China

*Einschränkungen*
+ Dies ist eine Offline-Migration, was bedeutet, dass der Amazon Redshift Redshift-Quellcluster während der Migration keine Schreibvorgänge ausführen kann.

## Architektur
<a name="migrate-an-amazon-redshift-cluster-to-an-aws-region-in-china-architecture"></a>

**Quelltechnologie-Stack**
+ Amazon Redshift Redshift-Cluster in einer AWS-Region außerhalb China

**Zieltechnologie-Stack**
+ Amazon Redshift Redshift-Cluster in einer AWS-Region in China

**Zielarchitektur**

![\[Migration von Amazon Redshift Redshift-Clusterdaten aus einem S3-Bucket in einer AWS-Region zu einem Bucket in einer Region China.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/f7d241d9-b700-406b-95a0-3e47e7f0fa60/images/b6016e3d-76db-4176-8f99-f804da94d3f2.png)


## Tools
<a name="migrate-an-amazon-redshift-cluster-to-an-aws-region-in-china-tools"></a>

**Tools**
+ [Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/gsg/GetStartedWithS3.html) — Amazon Simple Storage Service (Amazon S3) ist ein Objektspeicherservice, der Skalierbarkeit, Datenverfügbarkeit, Sicherheit und Leistung bietet. Sie können Amazon S3 verwenden, um Daten aus Amazon Redshift zu speichern, und Sie können Daten aus einem S3-Bucket nach Amazon Redshift kopieren.
+ [Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/welcome.html) — Amazon Redshift ist ein vollständig verwalteter Data-Warehouse-Service im Petabyte-Bereich in der Cloud. 
+ [psql](https://www.postgresql.org/docs/8.4/app-psql.html) — psql ist ein terminalbasiertes Frontend für PostgreSQL. 

## Epen
<a name="migrate-an-amazon-redshift-cluster-to-an-aws-region-in-china-epics"></a>

### Bereiten Sie sich auf die Migration in der Quellregion vor
<a name="prepare-for-migration-in-the-source-region"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Starten und konfigurieren Sie eine EC2 Instanz in der Quellregion. | Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die Amazon Elastic Compute Cloud (Amazon EC2) -Konsole. Ihre aktuelle Region wird in der Navigationsleiste oben auf dem Bildschirm angezeigt. Diese Region kann keine AWS-Region in China sein. Wählen Sie im Dashboard der EC2 Amazon-Konsole „Instanz starten“ und erstellen und konfigurieren Sie eine EC2 Instance. Wichtig: Stellen Sie sicher, dass Ihre EC2 Sicherheitsgruppen für eingehende Nachrichten uneingeschränkten Zugriff auf den TCP-Port 22 von Ihrem Quellcomputer aus zulassen. Anweisungen zum Starten und Konfigurieren einer EC2 Instanz finden Sie im Abschnitt „Verwandte Ressourcen“. | DBA, Entwickler | 
| Installieren Sie das psql-Tool. | Downloaden und installieren Sie PostgreSQL. Amazon Redshift stellt das psql-Tool nicht bereit, es wird mit PostgreSQL installiert. Weitere Informationen zur Verwendung von psql und zur Installation von PostgreSQL-Tools finden Sie im Abschnitt „Verwandte Ressourcen“. | DBA | 
| Notieren Sie die Amazon Redshift Redshift-Clusterdetails.  | Öffnen Sie die Amazon Redshift Redshift-Konsole und wählen Sie im Navigationsbereich „Clusters“ aus. Wählen Sie dann den Namen des Amazon Redshift Redshift-Clusters aus der Liste aus. Notieren Sie sich auf der Registerkarte „Eigenschaften“ im Abschnitt „Datenbankkonfigurationen“ den „Datenbanknamen“ und den „Port“. Öffnen Sie den Abschnitt „Verbindungsdetails“ und notieren Sie den „Endpunkt“ im <port><databasename>Format „Endpoint:/“. Wichtig: Stellen Sie sicher, dass Ihre Amazon Redshift Redshift-Sicherheitsgruppen für eingehende Nachrichten uneingeschränkten Zugriff auf den TCP-Port 5439 von Ihrer Instance aus zulassen. EC2  | DBA | 
| Connect psql mit dem Amazon Redshift Redshift-Cluster.  | <userid><databasename><port>Geben Sie an einer Befehlszeile die Verbindungsinformationen an, indem Sie den Befehl „psql -h <endpoint>-U -d -p“ ausführen. <userid>Geben Sie an der psql-Passwort-Eingabeaufforderung das Passwort für den Benutzer "" ein. Sie sind dann mit dem Amazon Redshift Redshift-Cluster verbunden und können interaktiv Befehle eingeben. | DBA | 
| Erstellen Sie einen S3-Bucket.  | Öffnen Sie die Amazon S3 S3-Konsole und erstellen Sie einen S3-Bucket für die aus Amazon Redshift exportierten Dateien. Anweisungen zum Erstellen eines S3-Buckets finden Sie im Abschnitt „Verwandte Ressourcen“. | DBA, AWS Allgemein | 
| Erstellen Sie eine IAM-Richtlinie, die das Entladen von Daten unterstützt. | Öffnen Sie die AWS Identity and Access Management (IAM) -Konsole und wählen Sie „Richtlinien“. Wählen Sie „Richtlinie erstellen“ und dann die Registerkarte „JSON“. Kopieren Sie die IAM-Richtlinie für das Entladen von Daten aus dem Abschnitt „Zusätzliche Informationen“ und fügen Sie sie ein. Wichtig: Ersetzen Sie „s3\$1bucket\$1name“ durch den Namen Ihres S3-Buckets. Wählen Sie „Richtlinie überprüfen“ und geben Sie einen Namen und eine Beschreibung für die Richtlinie ein. Wählen Sie „Richtlinie erstellen“. | DBA | 
| Erstellen Sie eine IAM-Rolle, um den UNLOAD-Vorgang für Amazon Redshift zu ermöglichen. | Öffnen Sie die IAM-Konsole und wählen Sie „Rollen“. Wählen Sie „Rolle erstellen“ und wählen Sie „AWS-Service“ unter „Typ der vertrauenswürdigen Entität auswählen“. Wählen Sie „Redshift“ für den Service, wählen Sie „Redshift — Customizable“ und dann „Next“. Wählen Sie die Richtlinie „Entladen“, die Sie zuvor erstellt haben, und klicken Sie auf „Weiter“. Geben Sie einen „Rollennamen“ ein und wählen Sie „Rolle erstellen“. | DBA | 
| Ordnen Sie die IAM-Rolle dem Amazon Redshift Redshift-Cluster zu.  | Öffnen Sie die Amazon Redshift Redshift-Konsole und wählen Sie „IAM-Rollen verwalten“. Wählen Sie im Dropdownmenü „Verfügbare Rollen“ und wählen Sie die Rolle aus, die Sie zuvor erstellt haben. Wählen Sie „Änderungen übernehmen“. Wenn der „Status“ für die IAM-Rolle unter „IAM-Rollen verwalten“ als „Sync“ angezeigt wird, können Sie den Befehl UNLOAD ausführen. | DBA | 
| Beenden Sie Schreibvorgänge in den Amazon Redshift Redshift-Cluster. | Sie müssen daran denken, alle Schreibvorgänge in den Amazon Redshift Redshift-Quellcluster zu beenden, bis die Migration abgeschlossen ist. | DBA | 

### Bereiten Sie sich auf die Migration in der Zielregion vor
<a name="prepare-for-migration-in-the-target-region"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Starten und konfigurieren Sie eine EC2 Instanz in der Zielregion. | Melden Sie sich bei der AWS-Managementkonsole für eine Region in China an, entweder Peking oder Ningxia. Wählen Sie in der EC2 Amazon-Konsole „Launch Instance“ und erstellen und konfigurieren Sie eine EC2 Instance. Wichtig: Stellen Sie sicher, dass Ihre EC2 Amazon-Sicherheitsgruppen für eingehende Nachrichten uneingeschränkten Zugriff auf TCP-Port 22 von Ihrem Quellcomputer aus zulassen. Weitere Anweisungen zum Starten und Konfigurieren einer EC2 Instance finden Sie im Abschnitt „Verwandte Ressourcen“. | DBA | 
| Notieren Sie die Amazon Redshift Redshift-Clusterdetails.  | Öffnen Sie die Amazon Redshift Redshift-Konsole und wählen Sie im Navigationsbereich „Clusters“ aus. Wählen Sie dann den Namen des Amazon Redshift Redshift-Clusters aus der Liste aus. Notieren Sie sich auf der Registerkarte „Eigenschaften“ im Abschnitt „Datenbankkonfigurationen“ den „Datenbanknamen“ und den „Port“. Öffnen Sie den Abschnitt „Verbindungsdetails“ und notieren Sie den „Endpunkt“ im <port><databasename>Format „Endpoint:/“. Wichtig: Stellen Sie sicher, dass Ihre Amazon Redshift Redshift-Sicherheitsgruppen für eingehende Nachrichten uneingeschränkten Zugriff auf den TCP-Port 5439 von Ihrer Instance aus zulassen. EC2  | DBA | 
| Connect psql mit dem Amazon Redshift Redshift-Cluster.  | <userid><databasename><port>Geben Sie an einer Befehlszeile die Verbindungsinformationen an, indem Sie den Befehl „psql -h <endpoint>-U -d -p“ ausführen. <userid>Geben Sie an der psql-Passwort-Eingabeaufforderung das Passwort für den Benutzer "" ein. Sie sind dann mit dem Amazon Redshift Redshift-Cluster verbunden und können interaktiv Befehle eingeben. | DBA | 
| Erstellen Sie einen S3-Bucket.  | Öffnen Sie die Amazon S3 S3-Konsole und erstellen Sie einen S3-Bucket für die exportierten Dateien aus Amazon Redshift. Hilfe zu dieser und anderen Geschichten finden Sie im Abschnitt „Verwandte Ressourcen“. | DBA | 
| Erstellen Sie eine IAM-Richtlinie, die das Kopieren von Daten unterstützt. | Öffnen Sie die IAM-Konsole und wählen Sie „Richtlinien“. Wählen Sie „Richtlinie erstellen“ und dann den Tab „JSON“. Kopieren Sie die IAM-Richtlinie zum Kopieren von Daten aus dem Abschnitt „Zusätzliche Informationen“ und fügen Sie sie ein. Wichtig: Ersetzen Sie „s3\$1bucket\$1name“ durch den Namen Ihres S3-Buckets. Wählen Sie „Richtlinie überprüfen“ und geben Sie einen Namen und eine Beschreibung für die Richtlinie ein. Wählen Sie „Richtlinie erstellen“. | DBA | 
| Erstellen Sie eine IAM-Rolle, um den COPY-Vorgang für Amazon Redshift zu ermöglichen. | Öffnen Sie die IAM-Konsole und wählen Sie „Rollen“. Wählen Sie „Rolle erstellen“ und wählen Sie „AWS-Service“ unter „Typ der vertrauenswürdigen Entität auswählen“. Wählen Sie „Redshift“ für den Service, wählen Sie „Redshift — Customizable“ und dann „Next“. Wählen Sie die Richtlinie „Kopieren“, die Sie zuvor erstellt haben, und klicken Sie auf „Weiter“. Geben Sie einen „Rollennamen“ ein und wählen Sie „Rolle erstellen“. | DBA | 
| Ordnen Sie die IAM-Rolle dem Amazon Redshift Redshift-Cluster zu.  | Öffnen Sie die Amazon Redshift Redshift-Konsole und wählen Sie „IAM-Rollen verwalten“. Wählen Sie im Dropdownmenü „Verfügbare Rollen“ und wählen Sie die Rolle aus, die Sie zuvor erstellt haben. Wählen Sie „Änderungen übernehmen“. Wenn der „Status“ für die IAM-Rolle unter „IAM-Rollen verwalten“ als „Sync“ angezeigt wird, können Sie den Befehl „COPY“ ausführen. | DBA | 

### Überprüfen Sie die Quelldaten und Objektinformationen, bevor Sie mit der Migration beginnen
<a name="verify-source-data-and-object-information-before-beginning-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Zeilen in den Amazon Redshift Redshift-Quelltabellen. | Verwenden Sie die Skripts im Abschnitt „Zusätzliche Informationen“, um die Anzahl der Zeilen in den Amazon Redshift Redshift-Quelltabellen zu überprüfen und aufzuzeichnen. Denken Sie daran, die Daten für die UNLOAD- und COPY-Skripten gleichmäßig aufzuteilen. Dies verbessert die Effizienz beim Entladen und Laden von Daten, da die Datenmenge, die von den einzelnen Skripten abgedeckt wird, ausgewogen ist. | DBA | 
| Überprüfen Sie die Anzahl der Datenbankobjekte im Amazon Redshift Redshift-Quellcluster. | Verwenden Sie die Skripts im Abschnitt „Zusätzliche Informationen“, um die Anzahl der Datenbanken, Benutzer, Schemas, Tabellen, Ansichten und benutzerdefinierten Funktionen (UDFs) in Ihrem Amazon Redshift Redshift-Quellcluster zu überprüfen und aufzuzeichnen. | DBA | 
| Überprüfen Sie die Ergebnisse der SQL-Anweisung vor der Migration. | Einige SQL-Anweisungen für die Datenvalidierung sollten nach den tatsächlichen Geschäfts- und Datensituationen sortiert werden. Dies dient dazu, die importierten Daten zu überprüfen, um sicherzustellen, dass sie konsistent sind und korrekt angezeigt werden. | DBA | 

### Migrieren Sie Daten und Objekte in die Zielregion
<a name="migrate-data-and-objects-to-the-target-region"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Generieren Sie Amazon Redshift DDL-Skripts.  | Generieren Sie Data Definition Language (DDL) -Skripts, indem Sie die Links aus dem Abschnitt „SQL-Anweisungen zur Abfrage von Amazon Redshift“ im Abschnitt „Zusätzliche Informationen“ verwenden. Diese DDL-Skripts sollten die Abfragen „Benutzer erstellen“, „Schema erstellen“, „Schemaprivilegien für Benutzer“, „Tabelle/Ansicht erstellen“, „Benutzerrechte für Objekte“ und „Funktion erstellen“ enthalten. | DBA | 
| Erstellen Sie Objekte im Amazon Redshift Redshift-Cluster für die Zielregion. | Führen Sie die DDL-Skripts mithilfe der AWS-Befehlszeilenschnittstelle (AWS CLI) in der AWS-Region in China aus. Diese Skripts erstellen Objekte im Amazon Redshift Redshift-Cluster für die Zielregion. | DBA | 
| Entladen Sie die Amazon Redshift Redshift-Quellclusterdaten in den S3-Bucket. | Führen Sie den Befehl UNLOAD aus, um Daten aus dem Amazon Redshift Redshift-Cluster in der Quellregion in den S3-Bucket zu entladen. | DBA, Entwickler  | 
| Übertragen Sie die Bucket-Daten der Quellregion S3 in den Ziel-Bucket der Region S3. | Übertragen Sie die Daten aus Ihrem S3-Bucket der Quellregion in den S3-Bucket der Zielregion. Da der Befehl „\$1 aws s3 sync“ nicht verwendet werden kann, stellen Sie sicher, dass Sie den Prozess verwenden, der im Artikel „Übertragung von Amazon S3 S3-Daten von AWS-Regionen zu AWS-Regionen in China“ im Abschnitt „Verwandte Ressourcen“ beschrieben ist. | Developer | 
|  Laden Sie Daten in den Amazon Redshift Redshift-Zielcluster.  | Führen Sie im psql-Tool für Ihre Zielregion den Befehl COPY aus, um Daten aus dem S3-Bucket in den Amazon Redshift Redshift-Zielcluster zu laden. | DBA | 

### Überprüfen Sie die Daten in den Quell- und Zielregionen nach der Migration
<a name="verify-the-data-in-the-source-and-target-regions-after-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen und vergleichen Sie die Anzahl der Zeilen in den Quell- und Zieltabellen. | Überprüfen und vergleichen Sie die Anzahl der Tabellenzeilen in den Quell- und Zielregionen, um sicherzustellen, dass alle migriert wurden. | DBA | 
| Überprüfen und vergleichen Sie die Anzahl der Quell- und Zieldatenbankobjekte. | Überprüfen und vergleichen Sie alle Datenbankobjekte in den Quell- und Zielregionen, um sicherzustellen, dass alle migriert wurden. | DBA | 
| Überprüfen und vergleichen Sie die SQL-Skriptergebnisse in den Quell- und Zielregionen. | Führen Sie die vor der Migration vorbereiteten SQL-Skripts aus. Überprüfen und vergleichen Sie die Daten, um sicherzustellen, dass die SQL-Ergebnisse korrekt sind. | DBA | 
| Setzen Sie die Passwörter aller Benutzer im Amazon Redshift Redshift-Zielcluster zurück.  | Nachdem die Migration abgeschlossen und alle Daten verifiziert wurden, sollten Sie alle Benutzerkennwörter für den Amazon Redshift Redshift-Cluster in der AWS-Region in China zurücksetzen. | DBA | 

## Zugehörige Ressourcen
<a name="migrate-an-amazon-redshift-cluster-to-an-aws-region-in-china-resources"></a>
+ [Übertragung von Amazon S3 S3-Daten von AWS-Regionen in AWS-Regionen in China](https://aws.amazon.com/cn/blogs/storage/transferring-amazon-s3-data-from-aws-regions-to-aws-regions-in-china/)
+ [Erstellen eines S3-Buckets](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-bucket.html)
+ [Zurücksetzen eines Amazon Redshift Redshift-Benutzerkennworts](https://docs.aws.amazon.com/redshift/latest/dg/r_ALTER_USER.html)
+ [PSQL-Dokumentation](https://www.postgresql.org/docs/8.4/static/app-psql.html)

## Zusätzliche Informationen
<a name="migrate-an-amazon-redshift-cluster-to-an-aws-region-in-china-additional"></a>

*IAM-Richtlinie für das Entladen von Daten*

```
{
  "Version": "2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Action": ["s3:ListBucket"],
      "Resource": ["arn:aws:s3:::s3_bucket_name"]
    },
    {
      "Effect": "Allow",
      "Action": ["s3:GetObject", "s3:DeleteObject"],
      "Resource": ["arn:aws:s3:::s3_bucket_name/*"]
    }
  ]
}
```

*IAM-Richtlinie für das Kopieren von Daten*

```
{
  "Version": "2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Action": ["s3:ListBucket"],
      "Resource": ["arn:aws:s3:::s3_bucket_name"]
    },
    {
      "Effect": "Allow",
      "Action": ["s3:GetObject"],
      "Resource": ["arn:aws:s3:::s3_bucket_name/*"]
    }
  ]
}
```

*SQL-Anweisungen zur Abfrage von Amazon Redshift*

```
##Database

select * from pg_database where datdba>1;

##User

select * from pg_user where usesysid>1;

##Schema

SELECT n.nspname AS "Name",

  pg_catalog.pg_get_userbyid(n.nspowner) AS "Owner"

FROM pg_catalog.pg_namespace n

WHERE n.nspname !~ '^pg_' AND n.nspname <> 'information_schema'

ORDER BY 1;

##Table

select count(*) from pg_tables where schemaname not in ('pg_catalog','information_schema');

select schemaname,count(*) from pg_tables where schemaname not in ('pg_catalog','information_schema') group by schemaname order by 1;

##View

SELECT 

    n.nspname AS schemaname,c.relname AS viewname,pg_catalog.pg_get_userbyid(c.relowner) as "Owner"

FROM 

    pg_catalog.pg_class AS c

INNER JOIN

    pg_catalog.pg_namespace AS n

    ON c.relnamespace = n.oid

WHERE relkind = 'v' and n.nspname not in ('information_schema','pg_catalog');

##UDF

SELECT 

   n.nspname AS schemaname,

   p.proname AS proname,

   pg_catalog.pg_get_userbyid(p.proowner) as "Owner"

FROM pg_proc p

LEFT JOIN pg_namespace n on n.oid = p.pronamespace

WHERE p.proowner != 1;
```

*SQL-Skripts zum Generieren von DDL-Anweisungen*
+ [Get\$1Schema\$1Priv\$1by\$1User-Skript](https://github.com/awslabs/amazon-redshift-utils/blob/master/src/AdminViews/v_get_schema_priv_by_user.sql)
+ [Generate\$1TBL\$1DDL-Skript](https://github.com/awslabs/amazon-redshift-utils/blob/master/src/AdminViews/v_generate_tbl_ddl.sql)
+ [Generate\$1View\$1DDL](https://github.com/awslabs/amazon-redshift-utils/blob/master/src/AdminViews/v_generate_view_ddl.sql)
+ [Generate\$1User\$1Grant\$1Revoke\$1DDL](https://github.com/awslabs/amazon-redshift-utils/blob/master/src/AdminViews/v_generate_user_grant_revoke_ddl.sql)
+ [Generieren\$1UDF\$1DDL](https://github.com/awslabs/amazon-redshift-utils/blob/master/src/AdminViews/v_generate_udf_ddl.sql)

# Transportieren Sie PostgreSQL-Datenbanken zwischen zwei Amazon RDS-DB-Instances mithilfe von pg\$1transport
<a name="transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport"></a>

*Raunak Rishabh und Jitender Kumar, Amazon Web Services*

## Zusammenfassung
<a name="transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport-summary"></a>

**Dieses Muster beschreibt die Schritte für die Migration extrem großer Datenbanken zwischen zwei Amazon Relational Database Service (Amazon RDS) für PostgreSQL-DB-Instances mithilfe der Erweiterung pg\$1transport.** Diese Erweiterung bietet einen physischen Transportmechanismus, um jede Datenbank zu verschieben. Durch das Streaming der Datenbankdateien mit minimaler Verarbeitung bietet es eine extrem schnelle Methode für die Migration großer Datenbanken zwischen DB-Instances mit minimaler Ausfallzeit. Diese Erweiterung verwendet ein Pull-Modell, bei dem die Ziel-DB-Instance die Datenbank aus der Quell-DB-Instance importiert.

## Voraussetzungen und Einschränkungen
<a name="transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport-prereqs"></a>

**Voraussetzungen**
+ Beide DB-Instances müssen dieselbe Hauptversion von PostgreSQL ausführen.
+ Die Datenbank darf auf dem Ziel nicht existieren. Andernfalls schlägt der Transport fehl.
+ In der Quelldatenbank darf keine andere Erweiterung als **pg\$1transport** aktiviert sein.
+ Alle Quelldatenbankobjekte müssen sich im Standard-Tablespace **pg\$1default** befinden.
+ Die Sicherheitsgruppe der Quell-DB-Instance sollte Traffic von der Ziel-DB-Instance zulassen.
+ Installieren Sie einen PostgreSQL-Client wie [psql](https://www.postgresql.org/docs/11/app-psql.html) oder [PgAdmin](https://www.pgadmin.org/)um mit der Amazon RDS PostgreSQL-DB-Instance zu arbeiten. Sie können den Client entweder in Ihrem lokalen System installieren oder eine Amazon Elastic Compute Cloud (Amazon EC2) -Instance verwenden. In diesem Muster verwenden wir psql auf einer EC2 Instance.

**Einschränkungen**
+ Sie können Datenbanken nicht zwischen verschiedenen Hauptversionen von Amazon RDS for PostgreSQL transportieren.
+ Die Zugriffsrechte und der Besitz von der Quelldatenbank werden nicht auf die Zieldatenbank übertragen.
+ Sie können Datenbanken nicht auf Read Replicas oder auf übergeordneten Instanzen von Read Replicas transportieren.
+ Sie können **Reg-Datentypen** nicht in Datenbanktabellen verwenden, die Sie mit dieser Methode transportieren möchten.
+ Sie können insgesamt bis zu 32 Transporte (einschließlich Importe und Exporte) gleichzeitig auf einer DB-Instance ausführen.
+ Sie können unsere include/exclude Tabellen nicht umbenennen. Alles wird so migriert, wie es ist.

**Vorsicht**
+ Erstellen Sie Sicherungskopien, bevor Sie die Erweiterung entfernen, da durch das Entfernen der Erweiterung auch abhängige Objekte und einige Daten entfernt werden, die für den Betrieb der Datenbank von entscheidender Bedeutung sind.
+ Berücksichtigen Sie die Instanzklasse und die Prozesse, die in anderen Datenbanken auf der Quell-Instance ausgeführt werden, wenn Sie die Anzahl der Worker und `work_mem` Werte für **pg\$1transport** bestimmen.
+ Wenn der Transport beginnt, werden alle Verbindungen in der Quelldatenbank beendet und die Datenbank wird in den schreibgeschützten Modus versetzt.

**Anmerkung**  
Wenn der Transport in einer Datenbank ausgeführt wird, hat er keine Auswirkungen auf andere Datenbanken auf demselben Server. ****

**Versionen der Produkte**
+ Amazon RDS for PostgreSQL 10.10 und höher und Amazon RDS for PostgreSQL 11.5 und höher. Aktuelle Versionsinformationen finden Sie unter [Transport von PostgreSQL-Datenbanken zwischen DB-Instances](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/PostgreSQL.TransportableDB.html) in der Amazon RDS-Dokumentation.

## Architektur
<a name="transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport-architecture"></a>

![\[Transport von PostgreSQL-Datenbanken zwischen Amazon RDS-DB-Instances\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/d5fb7ea3-32b7-4602-b382-3cf5c075c7c9/images/aec4d8d2-37a8-4136-9042-f9667ac4aebb.png)


## Tools
<a name="transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport-tools"></a>
+ **pg\$1transport** bietet einen physischen Transportmechanismus zum Verschieben jeder Datenbank. Durch das Streamen der Datenbankdateien mit minimaler Verarbeitung werden Daten beim physischen Transport viel schneller übertragen als bei herkömmlichen Dump- und Ladeprozessen und es sind nur minimale Ausfallzeiten erforderlich. PostgreSQL-Transportdatenbanken verwenden ein Pull-Modell, bei dem die Ziel-DB-Instance die Datenbank aus der Quell-DB-Instance importiert. Sie installieren diese Erweiterung auf Ihren DB-Instances, wenn Sie die Quell- und Zielumgebungen vorbereiten, wie in diesem Muster erklärt.
+ Mit [psql](https://www.postgresql.org/docs/11/app-psql.html) können Sie eine Verbindung zu Ihren PostgreSQL-DB-Instances herstellen und mit ihnen arbeiten. Informationen zur Installation von **psql** auf Ihrem System finden Sie auf der [PostgreSQL-Downloadseite](https://www.postgresql.org/download/).

## Epen
<a name="transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport-epics"></a>

### Erstellen Sie die Zielparametergruppe
<a name="create-the-target-parameter-group"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Parametergruppe für das Zielsystem. | Geben Sie einen Gruppennamen an, der sie als Zielparametergruppe identifiziert, z. B.`pgtarget-param-group`. Anweisungen finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_WorkingWithDBInstanceParamGroups.html#USER_WorkingWithParamGroups.Creating). | DBA | 
| Ändern Sie die Parameter für die Parametergruppe. | Legen Sie die folgenden Parameter fest:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport.html)Weitere Informationen zu diesen Parametern finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/PostgreSQL.TransportableDB.html). | DBA | 

### Erstellen Sie die Quellparametergruppe
<a name="create-the-source-parameter-group"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Parametergruppe für das Quellsystem. | Geben Sie einen Gruppennamen an, der sie als Quellparametergruppe identifiziert, z. B.`pgsource-param-group`. Anweisungen finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_WorkingWithDBInstanceParamGroups.html#USER_WorkingWithParamGroups.Creating). | DBA | 
| Ändern Sie die Parameter für die Parametergruppe. | Legen Sie die folgenden Parameter fest:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport.html)Weitere Informationen zu diesen Parametern finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/PostgreSQL.TransportableDB.html). | DBA | 

### Bereiten Sie die Zielumgebung vor
<a name="prepare-the-target-environment"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine neue Amazon RDS for PostgreSQL PostgreSQL-DB-Instance, in die Sie Ihre Quelldatenbank transportieren möchten. | Ermitteln Sie die Instanzklasse und die PostgreSQL-Version auf der Grundlage Ihrer Geschäftsanforderungen. | DBA, Systemadministrator, Datenbankarchitekt | 
| Ändern Sie die Sicherheitsgruppe des Ziels, um Verbindungen über den DB-Instance-Port von der EC2 Instance aus zuzulassen. | Standardmäßig ist der Port für die PostgreSQL-Instanz 5432. Wenn Sie einen anderen Port verwenden, müssen Verbindungen zu diesem Port für die Instanz geöffnet sein. EC2  | DBA, Systemadministrator | 
| Ändern Sie die Instanz und weisen Sie die neue Zielparametergruppe zu. | Beispiel, `pgtarget-param-group`. | DBA | 
| Starten Sie die Amazon RDS-DB-Zielinstanz neu.  | Die Parameter `shared_preload_libraries` und `max_worker_processes` sind statische Parameter und erfordern einen Neustart der Instance. | DBA, Systemadministrator | 
| Stellen Sie mit psql von der EC2 Instanz aus eine Connect zur Datenbank her. | Verwenden Sie den -Befehl: <pre>psql -h <rds_end_point> -p PORT -U username -d database -W</pre> | DBA | 
| Erstellen Sie die Erweiterung pg\$1transport. | Führen Sie die folgende Abfrage als Benutzer mit der `rds_superuser` Rolle aus:<pre>create extension pg_transport;</pre> | DBA | 

### Bereiten Sie die Quellumgebung vor
<a name="prepare-the-source-environment"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Ändern Sie die Sicherheitsgruppe der Quelle, um Verbindungen auf dem DB-Instance-Port von der Amazon-Instance und der EC2 Ziel-DB-Instance aus zuzulassen | Standardmäßig ist der Port für die PostgreSQL-Instanz 5432. Wenn Sie einen anderen Port verwenden, müssen Verbindungen zu diesem Port für die Instanz geöffnet sein. EC2  | DBA, Systemadministrator | 
| Ändern Sie die Instanz und weisen Sie die neue Quellparametergruppe zu. | Beispiel, `pgsource-param-group`. | DBA | 
| Starten Sie die Amazon RDS-DB-Quell-Instance neu.  | Die Parameter `shared_preload_libraries` und `max_worker_processes` sind statische Parameter und erfordern einen Neustart der Instance. | DBA | 
| Stellen Sie mit psql von der EC2 Instanz aus eine Connect zur Datenbank her. | Verwenden Sie den -Befehl: <pre>psql -h <rds_end_point> -p PORT -U username -d database -W</pre> | DBA | 
| Erstellen Sie die Erweiterung pg\$1transport und entfernen Sie alle anderen Erweiterungen aus den zu transportierenden Datenbanken. | Der Transport schlägt fehl, wenn in der Quelldatenbank andere Erweiterungen als **pg\$1transport** installiert sind. Dieser Befehl muss von einem Benutzer mit der `rds_superuser` Rolle ausgeführt werden. | DBA | 

### Führen Sie den Transport durch
<a name="perform-the-transport"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Führen Sie einen Probelauf durch. | Verwenden Sie die `transport.import_from_server` Funktion, um zuerst einen Probelauf durchzuführen:<pre>SELECT transport.import_from_server( 'source-db-instance-endpoint', source-db-instance-port, 'source-db-instance-user', 'source-user-password', 'source-database-name', 'destination-user-password', 'true');</pre>Der letzte Parameter dieser Funktion (gesetzt auf`true`) definiert den Probelauf. Diese Funktion zeigt alle Fehler an, die beim Ausführen des Haupttransports auftreten würden. Beheben Sie die Fehler, bevor Sie den Haupttransport ausführen.  | DBA | 
| Wenn der Probelauf erfolgreich ist, initiieren Sie den Datenbanktransport. | Führen Sie die `transport.import_from_server` Funktion aus, um den Transport durchzuführen. Sie stellt eine Verbindung zur Quelle her und importiert die Daten. <pre>SELECT transport.import_from_server( 'source-db-instance-endpoint', source-db-instance-port, 'source-db-instance-user', 'source-user-password', 'source-database-name', 'destination-user-password', false);</pre>Der letzte Parameter dieser Funktion (gesetzt auf`false`) gibt an, dass es sich nicht um einen Probelauf handelt. | DBA | 
| Führen Sie die Schritte nach dem Transport durch. | Nachdem der Datenbanktransport abgeschlossen ist:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport.html) | DBA | 

## Zugehörige Ressourcen
<a name="transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport-resources"></a>
+ [Dokumentation zu Amazon RDS](https://docs.aws.amazon.com/rds/)
+ [pg\$1transport-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/PostgreSQL.Procedural.Importing.html#PostgreSQL.TransportableDB.Setup)
+ [Migrieren von Datenbanken mit RDS PostgreSQL Transportable Databases](https://aws.amazon.com/blogs/database/migrating-databases-using-rds-postgresql-transportable-databases/) (Blogbeitrag)
+ [PostgreSQL wird heruntergeladen](https://www.postgresql.org/download/linux/redhat/)
+ [psql-Hilfsprogramm](https://www.postgresql.org/docs/11/app-psql.html)
+ [Erstellen einer DB-Parametergruppe](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_WorkingWithParamGroups.html#USER_WorkingWithParamGroups.Creating)
+ [Parameter in einer DB-Parametergruppe ändern](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_WorkingWithParamGroups.html#USER_WorkingWithParamGroups.Modifying)
+ [PostgreSQL wird heruntergeladen](https://www.postgresql.org/download/)

# Plattformwechsel
<a name="migration-replatform-pattern-list"></a>

**Topics**
+ [Exportieren Sie eine Microsoft SQL Server-Datenbank mithilfe von AWS DMS nach Amazon S3](export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms.md)
+ [Migrieren Sie Oracle CLOB-Werte in einzelne Zeilen in PostgreSQL auf AWS](migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws.md)
+ [Migrieren Sie Oracle PeopleSoft zu Amazon RDS Custom](migrate-oracle-peoplesoft-to-amazon-rds-custom.md)
+ [Migrieren Sie die Oracle ROWID-Funktionalität zu PostgreSQL auf AWS](migrate-oracle-rowid-functionality-to-postgresql-on-aws.md)
+ [Migrieren Sie Oracle-Datenbank-Fehlercodes in eine Amazon Aurora PostgreSQL-kompatible Datenbank](migrate-oracle-database-error-codes-to-an-amazon-aurora-postgresql-compatible-database.md)
+ [Migrieren Sie SAP ASE auf Amazon EC2 zu Amazon Aurora PostgreSQL-kompatibel mit AWS SCT und AWS DMS](migrate-sap-ase-on-amazon-ec2-to-amazon-aurora-postgresql-compatible-using-aws-sct-and-aws-dms.md)
+ [Migrieren Sie Windows-SSL-Zertifikate mithilfe von ACM zu einem Application Load Balancer](migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm.md)
+ [Migrieren Sie eine Messaging-Warteschlange von Microsoft Azure Service Bus zu Amazon SQS](migrate-a-messaging-queue-from-microsoft-azure-service-bus-to-amazon-sqs.md)
+ [Migrieren Sie eine Oracle JD EnterpriseOne Edwards-Datenbank mithilfe von Oracle Data Pump und AWS DMS zu AWS](migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms.md)
+ [Migrieren Sie eine PeopleSoft Oracle-Datenbank mithilfe von AWS DMS zu AWS](migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms.md)
+ [Migrieren Sie eine lokale MySQL-Datenbank zu Amazon RDS for MySQL](migrate-an-on-premises-mysql-database-to-amazon-rds-for-mysql.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank zu Amazon RDS for SQL Server](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server.md)
+ [Migrieren Sie Daten mithilfe von Rclone von Microsoft Azure Blob zu Amazon S3](migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone.md)
+ [Migrieren Sie von Couchbase Server zu Couchbase Capella auf AWS](migrate-from-couchbase-server-to-couchbase-capella-on-aws.md)
+ [Migrieren Sie von IBM WebSphere Application Server zu Apache Tomcat auf Amazon EC2](migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2.md)
+ [Migrieren Sie EC2 mit Auto Scaling von IBM WebSphere Application Server zu Apache Tomcat auf Amazon](migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-with-auto-scaling.md)
+ [Migrieren Sie eine.NET-Anwendung von Microsoft Azure App Service zu AWS Elastic Beanstalk](migrate-a-net-application-from-microsoft-azure-app-service-to-aws-elastic-beanstalk.md)
+ [Migrieren Sie von Oracle WebLogic zu Apache Tomcat (ToMEE) auf Amazon ECS](migrate-from-oracle-weblogic-to-apache-tomcat-tomee-on-amazon-ecs.md)
+ [Migrieren Sie mithilfe von AWS DMS eine Oracle-Datenbank von Amazon EC2 zu Amazon RDS for Oracle](migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-oracle-using-aws-dms.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank mit Logstash zu Amazon OpenSearch Service](migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank zu Amazon RDS for Oracle](migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank mit Oracle Data Pump zu Amazon RDS for Oracle](migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-using-oracle-data-pump.md)
+ [Migrieren Sie mit pglogical von PostgreSQL auf Amazon EC2 zu Amazon RDS for PostgreSQL](migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical.md)
+ [Migrieren Sie eine lokale PostgreSQL-Datenbank zu Aurora PostgreSQL](migrate-an-on-premises-postgresql-database-to-aurora-postgresql.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank zu Microsoft SQL Server auf Amazon EC2 unter Linux](migrate-an-on-premises-microsoft-sql-server-database-to-microsoft-sql-server-on-amazon-ec2-running-linux.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mithilfe von Verbindungsservern zu Amazon RDS for SQL Server](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-linked-servers.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mit systemeigenen Sicherungs- und Wiederherstellungsmethoden zu Amazon RDS for SQL Server](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods.md)
+ [Migrieren Sie eine Microsoft SQL Server-Datenbank mithilfe von AWS DMS und AWS SCT zu Aurora MySQL](migrate-a-microsoft-sql-server-database-to-aurora-mysql-by-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie eine lokale MariaDB-Datenbank mit nativen Tools zu Amazon RDS for MariaDB](migrate-an-on-premises-mariadb-database-to-amazon-rds-for-mariadb-using-native-tools.md)
+ [Migrieren Sie eine lokale MySQL-Datenbank zu Aurora MySQL](migrate-an-on-premises-mysql-database-to-aurora-mysql.md)
+ [Migrieren Sie lokale MySQL-Datenbanken mit Percona XtraBackup, Amazon EFS und Amazon S3 zu Aurora MySQL](migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3.md)
+ [Migrieren Sie lokale Java-Anwendungen mithilfe von AWS App2Container zu AWS](migrate-on-premises-java-applications-to-aws-using-aws-app2container.md)
+ [Migrieren Sie gemeinsam genutzte Dateisysteme in einer AWS großen Migration](migrate-shared-file-systems-in-an-aws-large-migration.md)
+ [Migrieren Sie eine Oracle-Datenbank mithilfe von GoldenGate Oracle-Flatfile-Adaptern zu Amazon RDS for Oracle](migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters.md)
+ [Ändern Sie Python- und Perl-Anwendungen, um die Datenbankmigration von Microsoft SQL Server zur Amazon Aurora PostgreSQL-Compatible Edition zu unterstützen](change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition.md)

# Exportieren Sie eine Microsoft SQL Server-Datenbank mithilfe von AWS DMS nach Amazon S3
<a name="export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms"></a>

*Sweta Krishna, Amazon Web Services*

## Zusammenfassung
<a name="export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms-summary"></a>

Organizations müssen für Datenbankmigration, Sicherung und Wiederherstellung, Datenarchivierung und Datenanalyse häufig Datenbanken auf Amazon Simple Storage Service (Amazon S3) kopieren. Dieses Muster beschreibt, wie Sie eine Microsoft SQL Server-Datenbank nach Amazon S3 exportieren können. Die Quelldatenbank kann vor Ort oder auf Amazon Elastic Compute Cloud (Amazon EC2) oder Amazon Relational Database Service (Amazon RDS) für Microsoft SQL Server in der Amazon Web Services (AWS) Cloud gehostet werden.

Die Daten werden mithilfe des AWS Database Migration Service (AWS DMS) exportiert. Standardmäßig schreibt AWS DMS Volllast- und CDC-Daten (Change Data Capture) im Format mit kommagetrennten Werten (.csv). Für kompaktere Speicher- und schnellere Abfrageoptionen verwendet dieses Muster die Formatoption Apache Parquet (.parquet).

## Voraussetzungen und Einschränkungen
<a name="export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine AWS Identity and Access Management (IAM) -Rolle für das Konto mit Schreib-, Lösch- und Tag-Zugriff auf den Ziel-S3-Bucket und AWS DMS (`dms.amazonaws.com`), das dieser IAM-Rolle als vertrauenswürdige Entität hinzugefügt wurde
+ Eine lokale Microsoft SQL Server-Datenbank (oder Microsoft SQL Server auf einer EC2 Instance oder eine Amazon RDS for SQL Server Server-Datenbank)
+ Netzwerkkonnektivität zwischen der Virtual Private Cloud (VPC) auf AWS und dem von AWS Direct Connect bereitgestellten lokalen Netzwerk oder einem virtuellen privaten Netzwerk (VPN)

**Einschränkungen**
+ Ein VPC-fähiger (Gateway-VPC) S3-Bucket wird derzeit in AWS DMS-Versionen vor 3.4.7 nicht unterstützt.
+ Änderungen an der Quelltabellenstruktur während des vollständigen Ladevorgangs werden nicht unterstützt.
+ Der vollständige LOB-Modus (Large Binary Object) von AWS DMS wird nicht unterstützt.

**Produktversionen**
+ Microsoft SQL Server-Versionen 2005 oder höher für die Enterprise, Standard, Workgroup und Developer Editionen.
+ Support für Microsoft SQL Server Version 2019 als Quelle ist in den AWS-DMS-Versionen 3.3.2 und höher verfügbar.

## Architektur
<a name="export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ Eine lokale Microsoft SQL Server-Datenbank (oder Microsoft SQL Server auf einer EC2 Instance oder eine Amazon RDS for SQL Server Server-Datenbank)**** 

**Zieltechnologie-Stack**
+ AWS Direct Connect
+ AWS DMS
+ Amazon S3

**Zielarchitektur**

![\[Daten werden von der SQL Server-Datenbank über Direct Connect in AWS DMS und dann in den S3-Bucket migriert.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/75b8b20f-a1a8-4633-9816-1b370cc7e92c/images/85bd433c-4a0a-4825-8661-e53f53265191.png)


## Tools
<a name="export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms-tools"></a>
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.
+ [AWS Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html) verbindet Ihr internes Netzwerk über ein Standard-Ethernet-Glasfaserkabel mit einem Direct Connect-Standort. Mit dieser Verbindung können Sie virtuelle Schnittstellen direkt zu öffentlichen AWS-Services erstellen und dabei Internetdienstanbieter in Ihrem Netzwerkpfad umgehen.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.

## Epen
<a name="export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms-epics"></a>

### Bereite dich auf die Migration vor
<a name="prepare-for-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Datenbankversion. | Überprüfen Sie die Version der Quelldatenbank und stellen Sie sicher, dass sie von AWS DMS unterstützt wird. Informationen zu unterstützten SQL Server-Datenbankversionen finden Sie unter [Verwenden einer Microsoft SQL Server-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SQLServer.html). | DBA | 
| Erstellen Sie eine VPC und eine Sicherheitsgruppe. | Erstellen Sie in Ihrem AWS-Konto eine VPC und eine Sicherheitsgruppe. Weitere Informationen finden Sie in der [Amazon VPC-Dokumentation](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html). | Systemadministrator | 
| Erstellen Sie einen Benutzer für die AWS DMS-Aufgabe. | Erstellen Sie einen AWS DMS-Benutzer in der Quelldatenbank und gewähren Sie ihm READ-Berechtigungen. Dieser Benutzer wird von AWS DMS verwendet. | DBA | 
| Testen Sie die DB-Konnektivität. | Testen Sie die Konnektivität des AWS DMS-Benutzers mit der SQL Server-DB-Instance. | DBA | 
| Erstellen Sie einen S3-Bucket. | Erstellen Sie den Ziel-S3-Bucket. Dieser Bucket wird die migrierten Tabellendaten enthalten. | Systemadministrator | 
| Erstellen Sie eine IAM-Richtlinie und -Rolle. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms.html) | Systemadministrator | 

### Migrieren Sie Daten mithilfe von AWS DMS
<a name="migrate-data-by-using-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine AWS DMS-Replikations-Instance. | Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die AWS DMS-Konsole. Wählen Sie im Navigationsbereich **Replikationsinstanzen, Replikationsinstanz** **erstellen** aus. Anweisungen finden Sie in [Schritt 1](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.Replication.html#CHAP_GettingStarted.Replication.ReplicationInstance) in der AWS DMS-Dokumentation. | DBA | 
| Erstellen Sie Quell- und Zielendpunkte. | Erstellen Sie Quell- und Zielendpunkte. Testen Sie die Verbindung von der Replikationsinstanz zu den Quell- und Zielendpunkten. Anweisungen finden Sie in [Schritt 2](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.Replication.html#CHAP_GettingStarted.Replication.Endpoints) in der AWS DMS-Dokumentation. | DBA | 
| Erstellen Sie eine Replikationsaufgabe. | Erstellen Sie eine Replikationsaufgabe und wählen Sie Volllast oder Volllast mit Change Data Capture (CDC) aus, um Daten von SQL Server in den S3-Bucket zu migrieren. Anweisungen finden Sie in [Schritt 3](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.Replication.html#CHAP_GettingStarted.Replication.Tasks) der AWS DMS-Dokumentation. | DBA | 
| Starten Sie die Datenreplikation. | Starten Sie die Replikationsaufgabe und überwachen Sie die Protokolle auf Fehler. | DBA | 

### Validieren Sie die Daten
<a name="validate-the-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die migrierten Daten. | Navigieren Sie auf der Konsole zu Ihrem Ziel-S3-Bucket. Öffnen Sie den Unterordner, der denselben Namen wie die Quelldatenbank hat. Vergewissern Sie sich, dass der Ordner alle Tabellen enthält, die aus der Quelldatenbank migriert wurden. | DBA | 

### Bereinigen von Ressourcen
<a name="clean-up-resources"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie temporäre AWS-Ressourcen herunter und löschen Sie sie. | Fahren Sie temporäre AWS-Ressourcen herunter, die Sie für die Datenmigration erstellt haben, z. B. die AWS DMS-Replikationsinstanz, und löschen Sie sie, nachdem Sie den Export validiert haben. | DBA | 

## Zugehörige Ressourcen
<a name="export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms-resources"></a>
+ [AWS Database Migration Service — Benutzerhandbuch](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
+ [Verwendung einer Microsoft SQL Server-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SQLServer.html)
+ [Verwendung von Amazon S3 als Ziel für AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.S3.html)
+ [Verwenden eines S3-Buckets als AWS-DMS-Ziel](https://repost.aws/knowledge-center/s3-bucket-dms-target) (AWS re:POST)

## Zusätzliche Informationen
<a name="export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms-additional"></a>

Verwenden Sie den folgenden Code, um eine IAM-Richtlinie mit S3-Bucket-Berechtigungen für die AWS-DMS-Rolle hinzuzufügen. Ersetzen Sie `bucketname` durch den Namen von Ihrem Bucket.

```
{
     "Version": "2012-10-17",		 	 	 
     "Statement": [
         {
             "Effect": "Allow",
             "Action": [
                 "s3:PutObject",
                 "s3:DeleteObject"
             ],
             "Resource": [
                 "arn:aws:s3:::bucketname*"
             ]
         },
         {
             "Effect": "Allow",
             "Action": [
                 "s3:ListBucket"
             ],
             "Resource": [
                 "arn:aws:s3:::bucketname*"
             ]
         }
     ]
 }
```

# Migrieren Sie Oracle CLOB-Werte in einzelne Zeilen in PostgreSQL auf AWS
<a name="migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws"></a>

*Sai Krishna Namburu und Sindhusha Paturu, Amazon Web Services*

## Zusammenfassung
<a name="migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws-summary"></a>

Dieses Muster beschreibt, wie die Werte von Oracle Character Large Object (CLOB) in Amazon Aurora PostgreSQL-Compatible Edition und Amazon Relational Database Service (Amazon RDS) für PostgreSQL in einzelne Zeilen aufgeteilt werden. PostgreSQL unterstützt den CLOB-Datentyp nicht.

Tabellen mit Intervallpartitionen werden in der Oracle-Quelldatenbank identifiziert, und der Tabellenname, der Partitionstyp, das Partitionsintervall und andere Metadaten werden erfasst und in die Zieldatenbank geladen. Sie können CLOB-Daten mit einer Größe von weniger als 1 GB mithilfe von AWS Database Migration Service (AWS DMS) als Text in Zieltabellen laden, oder Sie können die Daten im CSV-Format exportieren, in einen Amazon Simple Storage Service (Amazon S3) -Bucket laden und in Ihre PostgreSQL-Zieldatenbank migrieren.

Nach der Migration können Sie den benutzerdefinierten PostgreSQL-Code, der mit diesem Muster bereitgestellt wird, verwenden, um die CLOB-Daten basierend auf der neuen Zeilenzeichen-ID (`CHR(10)`) in einzelne Zeilen aufzuteilen und die Zieltabelle aufzufüllen.**** 

## Voraussetzungen und Einschränkungen
<a name="migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws-prereqs"></a>

**Voraussetzungen**
+ Eine Oracle-Datenbanktabelle mit Intervallpartitionen und Datensätzen mit einem CLOB-Datentyp.
+ Eine Aurora PostgreSQL-kompatible oder Amazon RDS for PostgreSQL PostgreSQL-Datenbank mit einer Tabellenstruktur, die der Quelltabelle ähnelt (dieselben Spalten und Datentypen).

**Einschränkungen**
+ Der CLOB-Wert darf 1 GB nicht überschreiten.
+ Jede Zeile in der Zieltabelle muss eine neue Zeilenzeichen-ID haben.

**Produktversionen**
+ Oracle 12c
+ Aurora Postgres 11.6

## Architektur
<a name="migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws-architecture"></a>

Das folgende Diagramm zeigt eine Oracle-Quelltabelle mit CLOB-Daten und die entsprechende PostgreSQL-Tabelle in Aurora PostgreSQL-kompatibler Version 11.6.

![\[CLOB-Quelltabelle und entsprechende PostgreSQL-Zieltabelle.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/55806ee7-6a9f-4058-9a47-a07de68223ca/images/79b9d4b9-6f20-4db5-8ca8-2a599769a498.png)


## Tools
<a name="migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws-tools"></a>

**AWS-Services**
+ [Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, ACID-konforme relationale Datenbank-Engine, die Sie bei der Einrichtung, dem Betrieb und der Skalierung von PostgreSQL-Bereitstellungen unterstützt.
+ [Amazon Relational Database Service (Amazon RDS) für PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen PostgreSQL-Datenbank in der AWS-Cloud.
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.

**Andere Tools**

Sie können die folgenden Client-Tools verwenden, um eine Verbindung zu Ihren Aurora PostgreSQL-kompatiblen Datenbanken und Amazon RDS for PostgreSQL PostgreSQL-Datenbanken herzustellen, darauf zuzugreifen und diese zu verwalten. (Diese Tools werden in diesem Muster nicht verwendet.)
+ [pgAdmin](https://www.pgadmin.org/) ist ein Open-Source-Verwaltungstool für PostgreSQL. Es bietet eine grafische Oberfläche, mit der Sie Datenbankobjekte erstellen, verwalten und verwenden können.
+ [DBeaver](https://dbeaver.io/)ist ein Open-Source-Datenbanktool für Entwickler und Datenbankadministratoren. Sie können das Tool verwenden, um Ihre Daten zu manipulieren, zu überwachen, zu analysieren, zu verwalten und zu migrieren.

## Best Practices
<a name="migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws-best-practices"></a>

Bewährte Methoden für die Migration Ihrer Datenbank von Oracle zu PostgreSQL finden Sie im AWS-Blogbeitrag [Bewährte Methoden für die Migration einer Oracle-Datenbank zu Amazon RDS PostgreSQL oder Amazon Aurora PostgreSQL](https://aws.amazon.com/blogs/database/best-practices-for-migrating-an-oracle-database-to-amazon-rds-postgresql-or-amazon-aurora-postgresql-migration-process-and-infrastructure-considerations/): Überlegungen zum Migrationsprozess und zur Infrastruktur.

Bewährte Methoden für die Konfiguration der AWS DMS-Aufgabe für die Migration großer binärer Objekte finden Sie unter [Migrieren großer binärer Objekte (LOBs)](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_BestPractices.html#CHAP_BestPractices.LOBS) in der AWS DMS-Dokumentation.

## Epen
<a name="migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws-epics"></a>

### Identifizieren Sie die CLOB-Daten
<a name="identify-the-clob-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Analysieren Sie die CLOB-Daten. | Analysieren Sie in der Oracle-Quelldatenbank die CLOB-Daten, um festzustellen, ob sie Spaltenüberschriften enthalten, sodass Sie die Methode zum Laden der Daten in die Zieltabelle festlegen können. Verwenden Sie die folgende Abfrage, um die Eingabedaten zu analysieren.`SELECT * FROM clobdata_or;  ` | Developer | 
| Laden Sie die CLOB-Daten in die Zieldatenbank. | Migrieren Sie die Tabelle mit CLOB-Daten in eine Zwischentabelle (Staging) in der Aurora- oder Amazon RDS-Zieldatenbank. Sie können AWS DMS verwenden oder die Daten als CSV-Datei in einen Amazon S3 S3-Bucket hochladen.Informationen zur Verwendung von AWS DMS für diese Aufgabe finden Sie unter [Verwenden einer Oracle-Datenbank als Quelle](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) und [Verwenden einer PostgreSQL-Datenbank als Ziel](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html) in der AWS DMS-Dokumentation.Informationen zur Verwendung von Amazon S3 für diese Aufgabe finden Sie [unter Amazon S3 als Ziel verwenden](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.S3.html) in der AWS DMS-Dokumentation. | Migrationsingenieur, DBA | 
| Validieren Sie die PostgreSQL-Zieltabelle. | Überprüfen Sie die Zieldaten, einschließlich der Header, anhand der Quelldaten, indem Sie die folgenden Abfragen in der Zieldatenbank verwenden.<pre>SELECT * FROM clobdata_pg;<br />SELECT * FROM clobdatatarget;</pre>Vergleichen Sie die Ergebnisse mit den Abfrageergebnissen aus der Quelldatenbank (ab dem ersten Schritt). | Developer | 
| Teilen Sie die CLOB-Daten in separate Zeilen auf. | Führen Sie den benutzerdefinierten PostgreSQL-Code aus, der im Abschnitt [Zusätzliche Informationen](#migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws-additional) bereitgestellt wird, um die CLOB-Daten aufzuteilen und sie in separate Zeilen in der PostgreSQL-Zieltabelle einzufügen. | Developer | 

### Überprüfen Sie die Daten.
<a name="validate-the-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Daten in der Zieltabelle. | Überprüfen Sie die in die Zieltabelle eingefügten Daten mithilfe der folgenden Abfragen.<pre>SELECT * FROM clobdata_pg;<br />SELECT * FROM clobdatatarget;</pre> | Developer | 

## Zugehörige Ressourcen
<a name="migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws-resources"></a>
+ [CLOB-Datentyp](https://docs.oracle.com/database/121/SQLRF/sql_elements001.htm#SQLRF0021) (Oracle-Dokumentation)
+ [Datentypen](https://www.postgresql.org/docs/11/datatype.html) (PostgreSQL-Dokumentation)

## Zusätzliche Informationen
<a name="migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws-additional"></a>

**PostgreSQL-Funktion zum Aufteilen von CLOB-Daten**

```
do
$$
declare
totalstr varchar;
str1 varchar;
str2 varchar;
pos1 integer := 1;
pos2 integer ;
len integer;


begin
        select rawdata||chr(10) into totalstr from clobdata_pg;
        len :=  length(totalstr) ;
        raise notice 'Total length : %',len;
        raise notice 'totalstr : %',totalstr;
        raise notice 'Before while loop';


        while pos1 < len  loop


                  select position (chr(10) in totalstr) into pos2;
                 raise notice '1st position of new line : %',pos2;


                str1 := substring (totalstr,pos1,pos2-1);
                raise notice 'str1 : %',str1;


                   insert into clobdatatarget(data) values (str1);
                   totalstr := substring(totalstr,pos2+1,len);
                   raise notice 'new totalstr :%',totalstr;
                len :=  length(totalstr) ;


        end loop;
end
$$
LANGUAGE 'plpgsql' ;
```

**Beispiele für Eingabe und Ausgabe**

Sie können die folgenden Beispiele verwenden, um den PostgreSQL-Code auszuprobieren, bevor Sie Ihre Daten migrieren.

Erstellen Sie eine Oracle-Datenbank mit drei Eingabezeilen.

```
CREATE TABLE clobdata_or (
id INTEGER GENERATED ALWAYS AS IDENTITY,
rawdata clob  );


insert into clobdata_or(rawdata) values (to_clob('test line 1') || chr(10) || to_clob('test line 2') || chr(10) || to_clob('test line 3') || chr(10));
COMMIT;


SELECT * FROM clobdata_or;
```

Dadurch wird die folgende Ausgabe angezeigt.


|  |  | 
| --- |--- |
| id | Rohdaten | 
| 1 | Testlinie 1 Testlinie 2 Testlinie 3 | 

Laden Sie die Quelldaten zur Verarbeitung in eine PostgreSQL-Staging-Tabelle (`clobdata_pg`).

```
SELECT * FROM clobdata_pg;

CREATE TEMP TABLE clobdatatarget (id1 SERIAL,data VARCHAR );

<Run the code in the additional information section.>

SELECT * FROM clobdatatarget;
```

Dadurch wird die folgende Ausgabe angezeigt.


|  |  | 
| --- |--- |
| id1 | data | 
| 1 | Testlinie 1 | 
| 2 | Testlinie 2 | 
| 3 | Testlinie 3 | 

# Migrieren Sie Oracle PeopleSoft zu Amazon RDS Custom
<a name="migrate-oracle-peoplesoft-to-amazon-rds-custom"></a>

*Gaurav Gupta, Amazon Web Services*

## Zusammenfassung
<a name="migrate-oracle-peoplesoft-to-amazon-rds-custom-summary"></a>

[Oracle PeopleSoft](https://www.oracle.com/applications/peoplesoft/) ist eine ERP-Lösung (Enterprise Resource Planning) für unternehmensweite Prozesse. PeopleSoft hat eine dreistufige Architektur: Client, Anwendung und Datenbank. PeopleSoft kann auf [Amazon Relational Database Service (Amazon RDS)](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) ausgeführt werden. Jetzt können Sie es auch PeopleSoft auf [Amazon RDS Custom](https://aws.amazon.com/rds/custom/) ausführen, das Zugriff auf das zugrunde liegende Betriebssystem bietet.

[Amazon RDS Custom for Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/working-with-custom-oracle.html) ist ein verwalteter Datenbankservice für ältere, benutzerdefinierte und verpackte Anwendungen, die Zugriff auf das zugrunde liegende Betriebssystem und die Datenbankumgebung benötigen. Wenn Sie Ihre Oracle-Datenbank zu Amazon RDS Custom migrieren, kann Amazon Web Services (AWS) Backup-Aufgaben und Hochverfügbarkeit verwalten, während Sie sich auf die Wartung Ihrer PeopleSoft Anwendung und Funktionalität konzentrieren können. Wichtige Faktoren, die bei einer Migration zu berücksichtigen sind, finden Sie unter [Strategien zur Oracle-Datenbankmigration](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/strategies.html) in AWS Prescriptive Guidance.

Dieses Muster konzentriert sich auf die Schritte zur Migration einer PeopleSoft Datenbank auf Amazon Elastic Compute Cloud (Amazon EC2) zu Amazon RDS Custom mithilfe eines Oracle Recovery Manager (RMAN) -Backups. Es verwendet ein gemeinsam [genutztes Amazon Elastic File System (Amazon EFS)](https://aws.amazon.com/efs/) -Dateisystem zwischen der EC2-Instance und Amazon RDS Custom, obwohl Sie auch Amazon FSx oder ein anderes gemeinsam genutztes Laufwerk verwenden können. Das Muster verwendet ein vollständiges RMAN-Backup (manchmal auch als Level-0-Backup bezeichnet). 

## Voraussetzungen und Einschränkungen
<a name="migrate-oracle-peoplesoft-to-amazon-rds-custom-prereqs"></a>

**Voraussetzungen**
+ Eine Oracle-Quelldatenbank der Version 19C, die auf Amazon EC2 mit Oracle Linux 7, Oracle Linux 8, Red Hat Enterprise Linux (RHEL) 7 oder RHEL 8 ausgeführt wird. In den Beispielen für dieses Muster lautet der Name der Quelldatenbank`FSDMO92`, aber das ist keine Voraussetzung.
**Anmerkung**  
Sie können dieses Muster auch mit lokalen Oracle-Quelldatenbanken verwenden. Sie müssen über die entsprechende Netzwerkkonnektivität zwischen dem lokalen Netzwerk und einer Virtual Private Cloud (VPC) verfügen.
+ Eine PeopleSoft 9.2-Demo-Instanz.
+ Eine einzige PeopleSoft Anwendungsebene. Sie können dieses Muster jedoch so anpassen, dass es mit mehreren Anwendungsebenen funktioniert.
+ Amazon RDS Custom ist mit mindestens 8 GB Swap-Speicherplatz konfiguriert.

**Einschränkungen**

Dieses Muster unterstützt die folgenden Konfigurationen nicht:
+ Setzen des `ARCHIVE_LAG_TARGET` Datenbankparameters auf einen Wert außerhalb des Bereichs von 60—7200
+ Deaktivierung des Protokollmodus der DB-Instance () `NOARCHIVELOG`
+ Ausschalten des für Amazon Elastic Block Store (Amazon EBS) optimierten Attributs der EC2-Instance
+ Änderung der ursprünglichen EBS-Volumes, die an die EC2-Instance angehängt sind
+ Hinzufügen neuer EBS-Volumes oder Ändern des Volumetyps von gp2 auf gp3
+ Ändern des Erweiterungsformats für den `LOG_ARCHIVE_FORMAT` Parameter (erforderlich) `*.arc`
+ Multiplexen oder Ändern des Speicherorts und Namens der Steuerdatei (das muss sein) `/rdsdbdata/db/*DBNAME*/controlfile/control-01.ctl`

Weitere Informationen zu diesen und anderen nicht unterstützten Konfigurationen finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/custom-troubleshooting.html#custom-troubleshooting.fix-unsupported).

**Produktversionen**

Informationen zu Oracle-Datenbankversionen und Instance-Klassen, die von Amazon RDS Custom unterstützt werden, finden Sie unter [Anforderungen und Einschränkungen für Amazon RDS Custom for Oracle.](https://docs.amazonaws.cn/en_us/AmazonRDS/latest/UserGuide/custom-reqs-limits.html)

## Architektur
<a name="migrate-oracle-peoplesoft-to-amazon-rds-custom-architecture"></a>

**Zieltechnologie-Stack**
+ Application Load Balancer
+ Amazon EFS
+ Amazon RDS Custom für Oracle
+ AWS Secrets Manager
+ Amazon Simple Storage Service (Amazon-S3)

**Zielarchitektur**

Das folgende Architekturdiagramm stellt ein PeopleSoft System dar, das in einer einzigen [Availability Zone](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html) auf AWS ausgeführt wird. Auf die Anwendungsebene wird über einen [Application Load Balancer](https://aws.amazon.com/elasticloadbalancing/application-load-balancer/) zugegriffen. Sowohl die Anwendung als auch die Datenbanken befinden sich in privaten Subnetzen, und die Amazon RDS Custom- und Amazon EC2 EC2-Datenbank-Instances verwenden ein gemeinsam genutztes Amazon EFS-Dateisystem, um die RMAN-Backup-Dateien zu speichern und darauf zuzugreifen. Amazon S3 wird zur Erstellung der benutzerdefinierten RDS-Oracle-Engine und zum Speichern der Redo-Logs-Metadaten verwendet.

![\[Webserver, App-Server, Amazon RDS Custom, eine EC2-DB-Instance und Amazon EFS in privaten Subnetzen.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/bd423dfe-f3c8-42d9-ac84-bf3d093c52bc/images/0e9a6431-e6c7-4047-ae6c-85311938041f.jpeg)


## Tools
<a name="migrate-oracle-peoplesoft-to-amazon-rds-custom-tools"></a>

**Tools**

*AWS-Services*
+ [Amazon RDS Custom for Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/working-with-custom-oracle.html) ist ein verwalteter Datenbankservice für ältere, benutzerdefinierte und verpackte Anwendungen, die Zugriff auf das zugrunde liegende Betriebssystem und die Datenbankumgebung benötigen. Er automatisiert Datenbankverwaltungsaufgaben wie Backups und Hochverfügbarkeit. 
+ [Amazon Elastic File System (Amazon EFS)](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) unterstützt Sie bei der Erstellung und Konfiguration gemeinsam genutzter Dateisysteme in der AWS-Cloud. Dieses Muster verwendet ein gemeinsam genutztes Amazon EFS-Dateisystem, um die RMAN-Backup-Dateien zu speichern und darauf zuzugreifen.
+ [AWS Secrets Manager](https://docs.aws.amazon.com/secretsmanager/latest/userguide/intro.html) hilft Ihnen dabei, hartcodierte Anmeldeinformationen in Ihrem Code, einschließlich Passwörter, durch einen API-Aufruf an Secrets Manager zu ersetzen, um das Geheimnis programmgesteuert abzurufen. In diesem Muster rufen Sie die Datenbankbenutzerkennwörter aus Secrets Manager ab, um die `ADMIN` Benutzer `RDSADMIN` und zu erstellen und die `system` Kennwörter `sys` und zu ändern.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.
+ [Elastic Load Balancing (ELB)](https://docs.aws.amazon.com/elasticloadbalancing/latest/userguide/what-is-load-balancing.html) verteilt eingehenden Anwendungs- oder Netzwerkverkehr auf mehrere Ziele. Sie können beispielsweise den Datenverkehr auf Amazon Elastic Compute Cloud (Amazon EC2) -Instances, Container und IP-Adressen in einer oder mehreren Availability Zones verteilen. Dieses Muster verwendet einen Application Load Balancer.

*Andere Tools*
+ Oracle Recovery Manager (RMAN) bietet Backup- und Recovery-Unterstützung für Oracle-Datenbanken. Dieses Muster verwendet RMAN, um ein Hot-Backup der Oracle-Quelldatenbank auf Amazon EC2 durchzuführen, die auf Amazon RDS Custom wiederhergestellt wird.

## Best Practices
<a name="migrate-oracle-peoplesoft-to-amazon-rds-custom-best-practices"></a>
+ Passen Sie für Datenbankinitialisierungsparameter die Standard-P-Datei an, die von der Amazon RDS Custom DB-Instance bereitgestellt wird, PeopleSoft anstatt die SP-Datei aus der Oracle-Quelldatenbank zu verwenden. Dies liegt daran, dass Leerzeichen und Kommentare Probleme beim Erstellen von Read Replicas in Amazon RDS Custom verursachen. Weitere Informationen zu Datenbank-Initialisierungsparametern finden Sie in Oracle Support Note 1100831.1 (erfordert einen [Oracle Support Account](https://support.oracle.com/portal/)).
+ Amazon RDS Custom verwendet standardmäßig die automatische Speicherverwaltung von Oracle. Wenn Sie den Hugemem-Kernel verwenden möchten, können Sie Amazon RDS Custom so konfigurieren, dass stattdessen die automatische Verwaltung gemeinsam genutzter Speicher verwendet wird.
+ Lassen Sie den `memory_max_target` Parameter standardmäßig aktiviert. Das Framework verwendet dies im Hintergrund, um Read Replicas zu erstellen.
+ Aktivieren Sie Oracle Flashback Database. Diese Funktion ist nützlich, wenn der Standbymodus in Failover-Testszenarien (nicht Switchover-Testszenarien) wiederhergestellt wird.

## Epen
<a name="migrate-oracle-peoplesoft-to-amazon-rds-custom-epics"></a>

### Richten Sie die DB-Instance und das Dateisystem ein
<a name="set-up-the-db-instance-and-file-system"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die DB-Instance. | Erstellen Sie in der Amazon RDS-Konsole eine Amazon RDS Custom for Oracle DB-Instance mit einem DB-Namen namens FSDMO92 (oder dem Namen Ihrer Quelldatenbank).Anweisungen finden Sie unter [Arbeiten mit Amazon RDS Custom](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/rds-custom.html) in der AWS-Dokumentation und im Blogbeitrag [Amazon RDS Custom for Oracle — New Control Capabilities in Database Environment](https://aws.amazon.com/blogs/aws/amazon-rds-custom-for-oracle-new-control-capabilities-in-database-environment/). Dadurch wird sichergestellt, dass der Datenbankname auf denselben Namen wie die Quelldatenbank gesetzt ist. (Wenn dieses Feld leer gelassen wird, werden die EC2-Instanz und der Datenbankname auf gesetzt`ORCL`.) | DBA | 

### Führen Sie eine vollständige RMAN-Backup der Amazon EC2 EC2-Quelldatenbank durch
<a name="perform-an-rman-full-backup-of-the-source-amazon-ec2-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie ein Backup-Skript. | Erstellen Sie ein RMAN-Backup-Skript, um die Datenbank im Amazon EFS-Dateisystem zu sichern, das Sie bereitgestellt haben (`/efs`im folgenden Beispiel). Sie können den Beispielcode verwenden oder eines Ihrer vorhandenen RMAN-Skripts ausführen.<pre>#!/bin/bash<br />Dt=`date +'%Y%m%d-%H%M'`<br />BACKUP_LOG="rman-${ORACLE_SID}-$Dt"<br />export TAGDATE=`date +%Y%m%d%H%M`;<br />LOGPATH=/u01/scripts/logs<br />rman target / >> $LOGPATH/rman-${ORACLE_SID}-$Dt << EOF<br />SQL "ALTER SYSTEM SWITCH LOGFILE";<br />SQL "ALTER SESSION SET NLS_DATE_FORMAT="DD.MM.YYYY HH24:MI:SS"";<br />RUN<br />{<br />  ALLOCATE CHANNEL ch11 TYPE DISK MAXPIECESIZE 5G;<br />  ALLOCATE CHANNEL ch12 TYPE DISK MAXPIECESIZE 5G;<br />  BACKUP AS COMPRESSED BACKUPSET FULL DATABASE FORMAT '/efs/rman_backup/FSCM/%d_%T_%s_%p_FULL' ;<br />  SQL "ALTER SYSTEM ARCHIVE LOG CURRENT";<br />  BACKUP FORMAT '/efs/rman_backup/FSCM/%d_%T_%s_%p_ARCHIVE' ARCHIVELOG ALL DELETE ALL INPUT ;<br />  BACKUP CURRENT CONTROLFILE FORMAT '/efs/rman_backup/FSCM/%d_%T_%s_%p_CONTROL';<br />}<br />EXIT;<br />EOF<br />  </pre> | DBA | 
| Führen Sie das Backup-Skript aus. | Um das RMAN-Backup-Skript auszuführen, melden Sie sich als Oracle Home User an und führen Sie das Skript aus.<pre>$  chmod a+x rman_backup.sh<br />$ ./rman_backup.sh &</pre> | DBA | 
| Suchen Sie nach Fehlern und notieren Sie sich den Namen der Sicherungsdatei. | Überprüfen Sie die RMAN-Protokolldatei auf Fehler. Wenn alles in Ordnung aussieht, listen Sie die Sicherungskopie der Steuerdatei auf, indem Sie den folgenden Befehl ausführen.<pre>RMAN> list backup of controlfile;<br /><br />using target database control file instead of recovery catalog<br /></pre>Notieren Sie sich den Namen der Ausgabedatei.<pre>List of Backup Sets<br />===================<br /><br />BS Key  Type LV Size       Device Type Elapsed Time Completion Time<br />------- ---- -- ---------- ----------- ------------ ---------------<br />12      Full    21.58M     DISK        00:00:01     13-JUL-22<br />        BP Key: 12   Status: AVAILABLE  Compressed: NO  Tag: TAG20220713T150155<br />        Piece Name: /efs/rman_backup/FSCM/FSDMO92_20220713_12_1_CONTROL<br /> Control File Included: Ckp SCN: 16559159985898   Ckp time: 13-JUL-22<br /></pre>Sie verwenden die Backup-Kontrolldatei`/efs/rman_backup/FSCM/FSDMO92_20220713_12_1_CONTROL`, wenn Sie die Datenbank auf Amazon RDS Custom wiederherstellen. | DBA | 

### Fahren Sie die Ebene der Quellanwendung herunter
<a name="shut-down-the-source-application-tier"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie die Anwendung herunter.  | Verwenden Sie das `psadmin` Hilfsprogramm oder das `psadmin` Befehlszeilenprogramm, um die Ebene der Quellanwendung herunterzufahren.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-oracle-peoplesoft-to-amazon-rds-custom.html) | DBA, Administrator PeopleSoft  | 

### Konfiguration der benutzerdefinierten Amazon RDS-Zieldatenbank
<a name="configure-the-target-amazon-rds-custom-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie das nfs-utils-rpm-Paket. | Führen Sie den folgenden Befehl aus, um das `nfs-utils rpm` Paket zu installieren.<pre>$ yum install -y nfs-utils<br /></pre> | DBA | 
| Mounten Sie den EFS-Speicher. | Rufen Sie den Amazon EFS-Mount-Befehl von der Amazon EFS-Konsolenseite ab. Mounten Sie das EFS-Dateisystem auf der Amazon RDS-Instance mithilfe eines Network File System (NFS) -Clients.<pre>sudo mount -t nfs4 -o nfsvers=4.1,rsize=1048576,wsize=1048576,hard,timeo=600,retrans=2,noresvport fs-xxxxxxxxxx.efs.eu-west-1.amazonaws.com:/ /efs<br />sudo mount -t nfs4 -o nfsvers=4.1,rsize=1048576,wsize=1048576,hard,timeo=600,retrans=2,noresvport fs-xxxxxxxxxx.efs.eu-west-1.amazonaws.com:/ /efs</pre> | DBA | 

### Löschen Sie die Startdatenbank und erstellen Sie die Verzeichnisse zum Speichern der Datenbankdateien
<a name="drop-the-starter-database-and-create-the-directories-to-store-the-database-files"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Den Automatisierungsmodus unterbrechen. | Sie müssen den [Automatisierungsmodus](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/custom-managing.html#custom-managing.pausing) auf Ihrer Amazon RDS Custom DB-Instance anhalten, bevor Sie mit den nächsten Schritten fortfahren, um sicherzustellen, dass die Automatisierung die RMAN-Wiederherstellungsaktivität nicht beeinträchtigt.Sie können die Automatisierung unterbrechen, indem Sie die AWS-Konsole oder den Befehl AWS Command Line Interface (AWS CLI) verwenden (stellen Sie sicher, dass Sie zuerst [die AWS-CLI konfiguriert](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html) haben).<pre>aws rds modify-db-instance \<br />--db-instance-identifier peoplesoft-fscm-92 \<br />--automation-mode all-paused \<br />--resume-full-automation-mode-minute 360 \<br />--region eu-west-1<br /></pre>Wenn Sie die Dauer der Pause angeben, stellen Sie sicher, dass Sie genügend Zeit für die RMAN-Wiederherstellung einplanen. Dies hängt von der Größe der Quelldatenbank ab. Ändern Sie daher den 360-Wert entsprechend.Stellen Sie außerdem sicher, dass sich die Gesamtzeit der angehaltenen Automatisierung nicht mit dem Sicherungs- oder Wartungsfenster der Datenbank überschneidet. | DBA | 
| Erstellen und ändern Sie die Parameterdatei für PeopleSoft | Um die Datei für zu erstellen und zu ändern PeopleSoft, verwenden Sie die Standarddatei, die mit der Amazon RDS Custom DB-Instance erstellt wurde. Fügen Sie die Parameter hinzu, die Sie für benötigen. PeopleSoft[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-oracle-peoplesoft-to-amazon-rds-custom.html) | DBA | 
| Löschen Sie die Starter-Datenbank. | Verwenden Sie den folgenden Code, um die bestehende benutzerdefinierte Amazon RDS-Datenbank zu löschen.<pre>$ sqlplus / as sysdba<br />SQL> shutdown immediate;<br />SQL> startup mount exclusive restrict;<br />SQL> drop database;<br />SQL> exit</pre> |  | 
| Stellen Sie die benutzerdefinierte Amazon RDS-Datenbank aus dem Backup wieder her. | Stellen Sie die Datenbank mithilfe des folgenden Skripts wieder her. Das Skript stellt zuerst die Steuerdatei und dann die gesamte Datenbank aus den auf dem EFS-Mount gespeicherten Sicherungsdateien wieder her.<pre>#!/bin/bash<br />Dt=`date +'%Y%m%d-%H%M'`<br />BACKUP_LOG="rman-${ORACLE_SID}-$Dt"<br />export TAGDATE=`date +%Y%m%d%H%M`;<br />LOGPATH=/rdsdbdata/scripts/logs<br />rman target / >> $LOGPATH/rman-${ORACLE_SID}-$Dt << EOF<br />restore controlfile from "/efs/rman_backup/FSCM/FSDMO92_20220713_12_1_CONTROL";<br />alter database mount;<br />run<br />{<br />set newname for database to '/rdsdbdata/db/FSDMO92_A/datafile/%f_%b';<br />SET NEWNAME FOR TEMPFILE 1 TO '/rdsdbdata/db/FSDMO92_A/datafile/%f_%b';<br />RESTORE DATABASE;<br />SWITCH DATAFILE ALL;<br />SWITCH TEMPFILE ALL;<br />RECOVER DATABASE;<br />}<br />EOF<br />sqlplus / as sysdba >> $LOGPATH/rman-${ORACLE_SID}-$Dt<<-EOF<br />ALTER DATABASE RENAME FILE '/u01/psoft/db/oradata/FSDMO92/redo01.log' TO '/rdsdbdata/db/FSDMO92_A/onlinelog/redo01.log';<br />ALTER DATABASE RENAME FILE '/u01/psoft/db/oradata/FSDMO92/redo02.log' TO '/rdsdbdata/db/FSDMO92_A/onlinelog/redo02.log';<br />ALTER DATABASE RENAME FILE '/u01/psoft/db/oradata/FSDMO92/redo03.log' TO '/rdsdbdata/db/FSDMO92_A/onlinelog/redo03.log';<br />alter database clear unarchived logfile group 1;<br />alter database clear unarchived logfile group 2;<br />alter database clear unarchived logfile group 3;<br />alter database open resetlogs;<br />EXIT<br />EOF<br /></pre> | DBA | 

### Passwörter aus Secrets Manager abrufen, Benutzer erstellen und Passwörter ändern
<a name="retrieve-passwords-from-secrets-manager-create-users-and-change-passwords"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Rufen Sie das Passwort von Secrets Manager ab. | Sie können diesen Schritt mithilfe der AWS-Konsole oder der AWS-CLI ausführen. Die folgenden Schritte zeigen Anweisungen für die Konsole.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-oracle-peoplesoft-to-amazon-rds-custom.html) | DBA | 
| Erstellen Sie den RDSADMIN-Benutzer. | `RDSADMIN`ist der Datenbankbenutzer für die Überwachung und Orchestrierung der Amazon RDS Custom DB-Instance. Da die Startdatenbank gelöscht und die Zieldatenbank mithilfe von RMAN aus der Quelle wiederhergestellt wurde, müssen Sie diesen Benutzer nach dem Wiederherstellungsvorgang neu erstellen, um sicherzustellen, dass die benutzerdefinierte Amazon RDS-Überwachung wie erwartet funktioniert. Sie müssen außerdem ein separates Profil und einen separaten Tablespace für den Benutzer erstellen. `RDSADMIN`[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-oracle-peoplesoft-to-amazon-rds-custom.html) | DBA | 
| Erstellen Sie den Master-Benutzer. | Da die Startdatenbank gelöscht und die Zieldatenbank mithilfe von RMAN aus der Quelle wiederhergestellt wurde, müssen Sie den Masterbenutzer neu erstellen. In diesem Beispiel lautet der Hauptbenutzername. `admin`<pre>SQL> create user admin identified by <password>;<br />SQL> grant dba to admin</pre> | DBA | 
| Ändern Sie die Systemkennwörter. | Ändern Sie die Systemkennwörter, indem Sie das Passwort verwenden, das Sie von Secrets Manager abgerufen haben.<pre>SQL> alter user sys identified by xxxxxxxxxxx;<br />SQL> alter user system identified by xxxxxxxxxx;</pre>Wenn Sie diese Passwörter nicht ändern, zeigt Amazon RDS Custom die Fehlermeldung „Der Benutzer oder die Benutzeranmeldedaten für die Datenbanküberwachung haben sich geändert“ an. | DBA | 

### Konfigurieren Sie die TNS-Einträge für Amazon RDS Custom und PeopleSoft
<a name="configure-the-tns-entries-for-amazon-rds-custom-and-peoplesoft"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie die Datei tnsnames. | Um von der Anwendungsebene aus eine Verbindung mit der Datenbank herzustellen, konfigurieren Sie die `tnsnames.ora` Datei so, dass Sie von der Anwendungsebene aus eine Verbindung zur Datenbank herstellen können. Im folgenden Beispiel können Sie sehen, dass es einen Softlink zu der `tnsnames.ora` Datei gibt, die Datei jedoch standardmäßig leer ist. <pre>$ cd /rdsdbbin/oracle/network/admin<br />$ ls -ltr<br />-rw-r--r-- 1 rdsdb database 1536 Feb 14  2018 shrept.lst<br />lrwxrwxrwx 1 rdsdb database   30 Apr  5 13:19 listener.ora -> /rdsdbdata/config/listener.ora<br />lrwxrwxrwx 1 rdsdb database   28 Apr  5 13:19 sqlnet.ora -> /rdsdbdata/config/sqlnet.ora<br />lrwxrwxrwx 1 rdsdb database   30 Apr  5 13:19 tnsnames.ora -> /rdsdbdata/config/tnsnames.ora</pre>[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-oracle-peoplesoft-to-amazon-rds-custom.html) | DBA | 

### Erstellen Sie den SPfile-Softlink
<a name="create-the-spfile-softlink"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie den SPFile-Softlink. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-oracle-peoplesoft-to-amazon-rds-custom.html) | DBA | 

### Führen Sie die Schritte nach der Migration durch
<a name="perform-post-migration-steps"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie das Schema, die Verbindungen und die Wartungsaufgaben. | Führen Sie die folgenden Aufgaben aus, um die Migration abzuschließen.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-oracle-peoplesoft-to-amazon-rds-custom.html) | DBA | 

## Zugehörige Ressourcen
<a name="migrate-oracle-peoplesoft-to-amazon-rds-custom-resources"></a>
+ [Arbeiten mit Amazon RDS Custom](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/rds-custom.html)
+ [Amazon RDS Custom for Oracle — Neue Kontrollfunktionen in der Datenbankumgebung](https://aws.amazon.com/blogs/aws/amazon-rds-custom-for-oracle-new-control-capabilities-in-database-environment/) (Blogbeitrag)
+ [Integrieren Sie Amazon RDS Custom for Oracle mit Amazon EFS](https://aws.amazon.com/blogs/database/integrate-amazon-rds-custom-for-oracle-with-amazon-efs/) (Blogbeitrag)
+ [Konfiguration von Amazon RDS als PeopleSoft Oracle-Datenbank](https://d1.awsstatic.com/whitepapers/configuring-amazon-rds-as-peoplesoft-database.pdf) (AWS-Whitepaper)

# Migrieren Sie die Oracle ROWID-Funktionalität zu PostgreSQL auf AWS
<a name="migrate-oracle-rowid-functionality-to-postgresql-on-aws"></a>

*Rakesh Raghav und Ramesh Pathuri, Amazon Web Services*

## Zusammenfassung
<a name="migrate-oracle-rowid-functionality-to-postgresql-on-aws-summary"></a>

Dieses Muster beschreibt Optionen für die Migration der `ROWID` Pseudospaltenfunktionalität in Oracle Database zu einer PostgreSQL-Datenbank in Amazon Relational Database Service (Amazon RDS) for PostgreSQL, Amazon Aurora PostgreSQL-Compatible Edition oder Amazon Elastic Compute Cloud (Amazon). EC2

In einer Oracle-Datenbank ist die Pseudospalte eine physische Adresse einer Zeile in einer Tabelle`ROWID`. Diese Pseudospalte wird verwendet, um eine Zeile eindeutig zu identifizieren, auch wenn der Primärschlüssel in einer Tabelle nicht vorhanden ist. PostgreSQL hat eine ähnliche Pseudospalte namens`ctid`, aber sie kann nicht als verwendet werden. `ROWID` Wie in der [PostgreSQL-Dokumentation](https://www.postgresql.org/docs/current/ddl-system-columns.html) erklärt, `ctid` kann es sich ändern, wenn es aktualisiert wird oder nach jedem `VACUUM` Prozess.

Es gibt drei Möglichkeiten, die `ROWID` Pseudospaltenfunktionalität in PostgreSQL zu erstellen:
+ Verwenden Sie eine Primärschlüsselspalte, anstatt eine Zeile in einer Tabelle `ROWID` zu identifizieren.
+ Verwenden Sie einen logischen primary/unique Schlüssel (der ein zusammengesetzter Schlüssel sein kann) in der Tabelle. 
+ Fügen Sie eine Spalte mit automatisch generierten Werten hinzu und machen Sie sie zu einem primary/unique Schlüssel zum Nachahmen`ROWID`.

Dieses Muster führt Sie durch alle drei Implementierungen und beschreibt die Vor- und Nachteile der einzelnen Optionen.

## Voraussetzungen und Einschränkungen
<a name="migrate-oracle-rowid-functionality-to-postgresql-on-aws-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Erfahrung in prozeduraler Codierung Language/PostgreSQL (PL/pgSQL)
+ Quelle: Oracle-Datenbank
+ Ein Amazon RDS for PostgreSQL- oder Aurora PostgreSQL-kompatibler Cluster oder eine EC2 Instance zum Hosten der PostgreSQL-Datenbank

**Einschränkungen**
+ Dieses Muster bietet Behelfslösungen für die Funktionalität. `ROWID` PostgreSQL bietet kein Äquivalent zu `ROWID` in Oracle Database.

**Produktversionen**
+ PostgreSQL 11.9 oder höher

## Architektur
<a name="migrate-oracle-rowid-functionality-to-postgresql-on-aws-architecture"></a>

**Quelltechnologie-Stack**
+ Oracle-Datenbank

**Zieltechnologie-Stack**
+ Aurora PostgreSQL-kompatibel, Amazon RDS für PostgreSQL oder eine Instance mit einer PostgreSQL-Datenbank EC2 

![\[Konvertierung einer Oracle-Datenbank nach PostgreSQL auf AWS\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/9a2ce994-4f68-4975-aab2-796cc20a3c82/images/6e7c2ef6-f440-476a-9003-f1f166718e15.png)


**Implementierungsoptionen**

Es gibt drei Optionen, um die mangelnde `ROWID` Unterstützung in PostgreSQL zu umgehen, je nachdem, ob Ihre Tabelle einen Primärschlüssel oder einen eindeutigen Index, einen logischen Primärschlüssel oder ein Identitätsattribut hat. Ihre Wahl hängt von Ihren Projektzeitplänen, Ihrer aktuellen Migrationsphase und den Abhängigkeiten von Anwendungs- und Datenbankcode ab.


| 
| 
| Option | Description | Vorteile | Nachteile | 
| --- |--- |--- |--- |
| **Primärschlüssel oder eindeutiger Index** | Wenn Ihre Oracle-Tabelle über einen Primärschlüssel verfügt, können Sie die Attribute dieses Schlüssels verwenden, um eine Zeile eindeutig zu identifizieren.  | Keine Abhängigkeit von proprietären Datenbankfunktionen.Minimale Auswirkungen auf die Leistung, da Primärschlüsselfelder indexiert werden. | Erfordert Änderungen am Anwendungs- und Datenbankcode, der `ROWID` für den Wechsel zu Primärschlüsselfeldern erforderlich ist.  | 
| **Logischer primary/unique Schlüssel** | Wenn Ihre Oracle-Tabelle einen logischen Primärschlüssel hat, können Sie die Attribute dieses Schlüssels verwenden, um eine Zeile eindeutig zu identifizieren. Ein logischer Primärschlüssel besteht aus einem Attribut oder einer Gruppe von Attributen, die eine Zeile eindeutig identifizieren können, aber dieser Wert wird in der Datenbank nicht durch eine Einschränkung erzwungen. | Keine Abhängigkeit von proprietären Datenbankfunktionen. | Erfordert Änderungen am Anwendungs- und Datenbankcode, der `ROWID` für den Wechsel zu Primärschlüsselfeldern erforderlich ist.Erhebliche Auswirkung auf die Leistung, wenn die Attribute des logischen Primärschlüssels nicht indexiert werden. Sie können jedoch einen eindeutigen Index hinzufügen, um Leistungsprobleme zu vermeiden. | 
| **Identitätsattribut** | Wenn Ihre Oracle-Tabelle keinen Primärschlüssel hat, können Sie ein zusätzliches Feld als erstellen`GENERATED ALWAYS AS IDENTITY`. Dieses Attribut generiert immer dann einen eindeutigen Wert, wenn Daten in die Tabelle eingefügt werden, sodass es verwendet werden kann, um eine Zeile für DML-Operationen (Data Manipulation Language) eindeutig zu identifizieren. | Keine Abhängigkeit von proprietären Datenbankfunktionen.Die PostgreSQL-Datenbank füllt das Attribut auf und behält seine Einzigartigkeit bei. | Erfordert Änderungen am Anwendungs- und Datenbankcode, der für den Wechsel `ROWID` zum Identitätsattribut erforderlich ist.Erhebliche Auswirkung auf die Leistung, wenn das zusätzliche Feld nicht indexiert wird. Sie können jedoch einen Index hinzufügen, um Leistungsprobleme zu vermeiden. | 

## Tools
<a name="migrate-oracle-rowid-functionality-to-postgresql-on-aws-tools"></a>
+ [Amazon Relational Database Service (Amazon RDS) für PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen PostgreSQL-Datenbank in der AWS-Cloud.
+ [Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, ACID-konforme relationale Datenbank-Engine, die Sie bei der Einrichtung, dem Betrieb und der Skalierung von PostgreSQL-Bereitstellungen unterstützt.
+ [AWS Command Line Interface (AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-welcome.html) ist ein Open-Source-Tool, mit dem Sie über Befehle in Ihrer Befehlszeilen-Shell mit AWS-Services interagieren können. In diesem Muster können Sie die AWS-CLI verwenden, um SQL-Befehle über **pgAdmin** auszuführen.
+ [pgAdmin](https://www.pgadmin.org/) ist ein Open-Source-Verwaltungstool für PostgreSQL. Es bietet eine grafische Oberfläche, mit der Sie Datenbankobjekte erstellen, verwalten und verwenden können.
+ Das [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist.

## Epen
<a name="migrate-oracle-rowid-functionality-to-postgresql-on-aws-epics"></a>

### Identifizieren Sie die Quelltabellen
<a name="identify-the-source-tables"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie Oracle-Tabellen, die das `ROWID` Attribut verwenden. | Verwenden Sie das AWS Schema Conversion Tool (AWS SCT), um Oracle-Tabellen zu identifizieren, die über `ROWID` Funktionen verfügen. Weitere Informationen finden Sie in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Source.Oracle.ToPostgreSQL.html#CHAP_Source.Oracle.ToPostgreSQL.ConvertRowID). –oder –Verwenden Sie in Oracle die `DBA_TAB_COLUMNS` Ansicht, um Tabellen mit einem `ROWID` Attribut zu identifizieren. Diese Felder können zum Speichern von alphanumerischen 10-Byte-Zeichen verwendet werden. Ermitteln Sie die Verwendung und konvertieren Sie diese gegebenenfalls in ein `VARCHAR` Feld. | DBA oder Entwickler | 
| Identifizieren Sie den Code, der auf diese Tabellen verweist. | Verwenden Sie AWS SCT, um einen Migrationsbewertungsbericht zu erstellen, um die Verfahren zu identifizieren, die betroffen sind von`ROWID`. Weitere Informationen finden Sie in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_AssessmentReport.html). –oder –Verwenden Sie in der Oracle-Quelldatenbank das Textfeld der `dba_source` Tabelle, um Objekte zu identifizieren, die `ROWID` Funktionen verwenden. | DBA oder Entwickler | 

### Ermitteln Sie die Verwendung von Primärschlüsseln
<a name="determine-primary-key-usage"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie Tabellen, die keine Primärschlüssel haben. | Verwenden Sie dies in der Oracle-Quelldatenbank, `DBA_CONSTRAINTS` um Tabellen zu identifizieren, die keine Primärschlüssel haben. Anhand dieser Informationen können Sie die Strategie für jede Tabelle festlegen. Beispiel:<pre>select dt.*<br />from dba_tables dt<br />where not exists (select 1<br />                  from all_constraints ct<br />                  where ct.owner = Dt.owner<br />                    and ct.table_name = Dt.table_name<br />                    and ct.constraint_type = 'P'<br />                  )<br />and dt.owner = '{schema}'</pre> | DBA oder Entwickler | 

### Identifizieren Sie die Lösung und wenden Sie sie an
<a name="identify-and-apply-the-solution"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Wenden Sie Änderungen für Tabellen an, die einen definierten oder logischen Primärschlüssel haben.  | Nehmen Sie die im Abschnitt [Zusätzliche Informationen](#migrate-oracle-rowid-functionality-to-postgresql-on-aws-additional) aufgeführten Änderungen am Anwendungs- und Datenbankcode vor, um einen eindeutigen Primärschlüssel oder einen logischen Primärschlüssel zur Identifizierung einer Zeile in Ihrer Tabelle zu verwenden. | DBA oder Entwickler | 
| Fügen Sie Tabellen, die keinen definierten oder logischen Primärschlüssel haben, ein zusätzliches Feld hinzu. | Fügen Sie ein Attribut des Typs hinzu`GENERATED ALWAYS AS IDENTITY`. Nehmen Sie die Änderungen an der Anwendung und dem Datenbankcode vor, die im Abschnitt [Zusätzliche Informationen](#migrate-oracle-rowid-functionality-to-postgresql-on-aws-additional) aufgeführt sind. | DBA oder Entwickler | 
| Fügen Sie bei Bedarf einen Index hinzu. | Fügen Sie dem zusätzlichen Feld oder dem logischen Primärschlüssel einen Index hinzu, um die SQL-Leistung zu verbessern. | DBA oder Entwickler | 

## Zugehörige Ressourcen
<a name="migrate-oracle-rowid-functionality-to-postgresql-on-aws-resources"></a>
+ [PostgreSQL CTID (PostgreSQL-Dokumentation](https://www.postgresql.org/docs/current/ddl-system-columns.html))
+ [Generierte Spalten](https://www.postgresql.org/docs/current/ddl-generated-columns.html) (PostgreSQL-Dokumentation)
+ [ROWID-Pseudospalte (](https://docs.oracle.com/en/database/oracle/oracle-database/19/sqlrf/ROWID-Pseudocolumn.html#GUID-F6E0FBD2-983C-495D-9856-5E113A17FAF1)Oracle-Dokumentation)

## Zusätzliche Informationen
<a name="migrate-oracle-rowid-functionality-to-postgresql-on-aws-additional"></a>

Die folgenden Abschnitte enthalten Oracle- und PostgreSQL-Codebeispiele, um die drei Ansätze zu veranschaulichen.

**Szenario 1: Verwendung eines eindeutigen Primärschlüssels**

In den folgenden Beispielen erstellen Sie die Tabelle `testrowid_s1` mit `emp_id` als Primärschlüssel.

*Oracle-Code:*

```
create table testrowid_s1 (emp_id integer, name varchar2(10), CONSTRAINT testrowid_pk PRIMARY KEY (emp_id));
INSERT INTO testrowid_s1(emp_id,name) values (1,'empname1');
INSERT INTO testrowid_s1(emp_id,name) values (2,'empname2');
INSERT INTO testrowid_s1(emp_id,name) values (3,'empname3');
INSERT INTO testrowid_s1(emp_id,name) values (4,'empname4');
commit;

SELECT rowid,emp_id,name FROM testrowid_s1;
ROWID                  EMP_ID NAME
------------------ ---------- ----------
AAAF3pAAAAAAAMOAAA          1 empname1
AAAF3pAAAAAAAMOAAB          2 empname2
AAAF3pAAAAAAAMOAAC          3 empname3
AAAF3pAAAAAAAMOAAD          4 empname4

UPDATE testrowid_s1 SET name = 'Ramesh' WHERE rowid = 'AAAF3pAAAAAAAMOAAB' ;
commit;

SELECT rowid,emp_id,name FROM testrowid_s1;
ROWID                  EMP_ID NAME
------------------ ---------- ----------
AAAF3pAAAAAAAMOAAA          1 empname1
AAAF3pAAAAAAAMOAAB          2 Ramesh
AAAF3pAAAAAAAMOAAC          3 empname3
AAAF3pAAAAAAAMOAAD          4 empname4
```

*PostgreSQL-Code:*

```
CREATE TABLE public.testrowid_s1
(
    emp_id integer,
    name character varying,
    primary key (emp_id)
);

insert into public.testrowid_s1 (emp_id,name) values 
(1,'empname1'),(2,'empname2'),(3,'empname3'),(4,'empname4');

select emp_id,name from testrowid_s1;
 emp_id |   name   
--------+----------
      1 | empname1
      2 | empname2
      3 | empname3
      4 | empname4

update testrowid_s1 set name = 'Ramesh' where emp_id = 2 ;

select emp_id,name from testrowid_s1;
 emp_id |   name   
--------+----------
      1 | empname1
      3 | empname3
      4 | empname4
      2 | Ramesh
```

**Szenario 2: Verwendung eines logischen Primärschlüssels**

In den folgenden Beispielen erstellen Sie die Tabelle `testrowid_s2` `emp_id` als logischen Primärschlüssel.

*Oracle-Code:*

```
create table testrowid_s2 (emp_id integer, name varchar2(10) );
INSERT INTO testrowid_s2(emp_id,name) values (1,'empname1');
INSERT INTO testrowid_s2(emp_id,name) values (2,'empname2');
INSERT INTO testrowid_s2(emp_id,name) values (3,'empname3');
INSERT INTO testrowid_s2(emp_id,name) values (4,'empname4');
commit;

SELECT rowid,emp_id,name FROM testrowid_s2;
ROWID                  EMP_ID NAME
------------------ ---------- ----------
AAAF3rAAAAAAAMeAAA          1 empname1
AAAF3rAAAAAAAMeAAB          2 empname2
AAAF3rAAAAAAAMeAAC          3 empname3
AAAF3rAAAAAAAMeAAD          4 empname4

UPDATE testrowid_s2 SET name = 'Ramesh' WHERE rowid = 'AAAF3rAAAAAAAMeAAB' ;
commit;

SELECT rowid,emp_id,name FROM testrowid_s2;
ROWID                  EMP_ID NAME
------------------ ---------- ----------
AAAF3rAAAAAAAMeAAA          1 empname1
AAAF3rAAAAAAAMeAAB          2 Ramesh
AAAF3rAAAAAAAMeAAC          3 empname3
AAAF3rAAAAAAAMeAAD          4 empname4
```

*PostgreSQL-Code:*

```
CREATE TABLE public.testrowid_s2
(
    emp_id integer,
    name character varying
);

insert into public.testrowid_s2 (emp_id,name) values 
(1,'empname1'),(2,'empname2'),(3,'empname3'),(4,'empname4');

select emp_id,name from testrowid_s2;
 emp_id |   name   
--------+----------
      1 | empname1
      2 | empname2
      3 | empname3
      4 | empname4

update testrowid_s2 set name = 'Ramesh' where emp_id = 2 ;

select emp_id,name from testrowid_s2;
 emp_id |   name   
--------+----------
      1 | empname1
      3 | empname3
      4 | empname4
      2 | Ramesh
```

**Szenario 3: Verwendung eines Identitätsattributs**

In den folgenden Beispielen erstellen Sie die Tabelle `testrowid_s3` ohne Primärschlüssel und mithilfe eines Identitätsattributs.

*Oracle-Code:*

```
create table testrowid_s3 (name varchar2(10));
INSERT INTO testrowid_s3(name) values ('empname1');
INSERT INTO testrowid_s3(name) values ('empname2');
INSERT INTO testrowid_s3(name) values ('empname3');
INSERT INTO testrowid_s3(name) values ('empname4');
commit;

SELECT rowid,name FROM testrowid_s3;
ROWID              NAME
------------------ ----------
AAAF3sAAAAAAAMmAAA empname1
AAAF3sAAAAAAAMmAAB empname2
AAAF3sAAAAAAAMmAAC empname3
AAAF3sAAAAAAAMmAAD empname4

UPDATE testrowid_s3 SET name = 'Ramesh' WHERE rowid = 'AAAF3sAAAAAAAMmAAB' ;
commit;

SELECT rowid,name FROM testrowid_s3;
ROWID              NAME
------------------ ----------
AAAF3sAAAAAAAMmAAA empname1
AAAF3sAAAAAAAMmAAB Ramesh
AAAF3sAAAAAAAMmAAC empname3
AAAF3sAAAAAAAMmAAD empname4
```

*PostgreSQL-Code:*

```
CREATE TABLE public.testrowid_s3
(
    rowid_seq bigint generated always as identity,
    name character varying
);

insert into public.testrowid_s3 (name) values 
('empname1'),('empname2'),('empname3'),('empname4');

select rowid_seq,name from testrowid_s3;
 rowid_seq |   name   
-----------+----------
         1 | empname1
         2 | empname2
         3 | empname3
         4 | empname4

update testrowid_s3 set name = 'Ramesh' where rowid_seq = 2 ;

select rowid_seq,name from testrowid_s3;
 rowid_seq |   name   
-----------+----------
         1 | empname1
         3 | empname3
         4 | empname4
         2 | Ramesh
```

# Migrieren Sie Oracle-Datenbank-Fehlercodes in eine Amazon Aurora PostgreSQL-kompatible Datenbank
<a name="migrate-oracle-database-error-codes-to-an-amazon-aurora-postgresql-compatible-database"></a>

*Sai Parthasaradhi und Veeranjaneyulu Grandhi, Amazon Web Services*

## Zusammenfassung
<a name="migrate-oracle-database-error-codes-to-an-amazon-aurora-postgresql-compatible-database-summary"></a>

Dieses Muster zeigt, wie Oracle Database-Fehlercodes mithilfe einer vordefinierten Metadatentabelle in eine [Amazon Aurora PostgreSQL-kompatible Edition-Datenbank](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) migriert werden.

Oracle-Datenbankfehlercodes haben nicht immer einen entsprechenden PostgreSQL-Fehlercode. Dieser Unterschied in den Fehlercodes kann es schwierig machen, die Verarbeitungslogik der Prozeduren oder Funktionen in der PostgreSQL-Zielarchitektur zu konfigurieren.

Sie können den Vorgang vereinfachen, indem Sie die Fehlercodes der Quell- und Zieldatenbank, die für Ihr PL/pgSQL Programm von Bedeutung sind, in einer Metadatentabelle speichern. Konfigurieren Sie dann die Tabelle so, dass gültige Oracle Database-Fehlercodes gekennzeichnet und sie ihren PostgreSQL-Entsprechungen zugeordnet werden, bevor Sie mit der verbleibenden Prozesslogik fortfahren. Wenn der Oracle-Datenbank-Fehlercode nicht in der Metadatentabelle enthalten ist, wird der Prozess mit der Ausnahme beendet. Anschließend können Sie die Fehlerdetails manuell überprüfen und den neuen Fehlercode zur Tabelle hinzufügen, falls Ihr Programm dies erfordert.

Mit dieser Konfiguration kann Ihre Amazon Aurora PostgreSQL-kompatible Datenbank Fehler genauso behandeln wie Ihre Oracle-Quelldatenbank.

**Anmerkung**  
Die Konfiguration einer PostgreSQL-Datenbank für die korrekte Verarbeitung von Oracle-Datenbank-Fehlercodes erfordert normalerweise Änderungen an der Datenbank und dem Anwendungscode.

## Voraussetzungen und Einschränkungen
<a name="migrate-oracle-database-error-codes-to-an-amazon-aurora-postgresql-compatible-database-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Oracle-Quelldatenbank mit laufenden Instance- und Listener-Services
+ Ein Amazon Aurora PostgreSQL-kompatibler Cluster, der betriebsbereit ist
+ Vertrautheit mit Oracle Database
+ Vertrautheit mit PostgreSQL-Datenbanken

## Architektur
<a name="migrate-oracle-database-error-codes-to-an-amazon-aurora-postgresql-compatible-database-architecture"></a>

Das folgende Diagramm zeigt ein Beispiel für einen Amazon Aurora PostgreSQL-kompatiblen Datenbank-Workflow für die Validierung und Behandlung von Datenfehlercodes:

![\[Validierung und Behandlung von Datenfehlercodes für eine Aurora PostgreSQL-kompatible Datenbank.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/82751f40-2fd9-4ce7-ab61-0874552d857b/images/b7ab627e-8f34-4635-8660-93c5c80ce38d.png)


Das Diagramm zeigt den folgenden Workflow:

1. Eine Tabelle enthält die Fehlercodes und Klassifizierungen von Oracle Database sowie die entsprechenden PostgreSQL-Fehlercodes und Klassifizierungen. Die Tabelle enthält eine **valid\$1error-Spalte, in der klassifiziert wird, ob bestimmte, vordefinierte Fehlercodes** gültig sind oder nicht.

1. **Wenn eine PL/pgSQL Funktion (**func\$1processdata**) eine Ausnahme auslöst, ruft sie eine zweite Funktion auf (error\$1validation). PL/pgSQL **

1. Die Funktion **error\$1validation** akzeptiert den Fehlercode der Oracle-Datenbank als Eingabeargument. Anschließend überprüft die Funktion den eingehenden Fehlercode anhand der Tabelle, um festzustellen, ob der Fehler in der Tabelle enthalten ist.

1. Wenn der Oracle Database-Fehlercode in der Tabelle enthalten ist, gibt die Funktion **error\$1validation** den Wert **TRUE** zurück und die Prozesslogik wird fortgesetzt. Wenn der Fehlercode nicht in der Tabelle enthalten ist, gibt die Funktion einen **FALSE-Wert** zurück und die Prozesslogik wird mit einer Ausnahme beendet.

1. Wenn die Funktion einen **FALSE-Wert** zurückgibt, werden die Fehlerdetails manuell vom Funktionsleiter der Anwendung überprüft, um festzustellen, ob sie gültig sind.

1. Der neue Fehlercode wird dann entweder manuell zur Tabelle hinzugefügt oder nicht. Wenn der Fehlercode gültig ist und der Tabelle hinzugefügt wurde, gibt die Funktion **error\$1validation** beim nächsten Auftreten der Ausnahme den Wert **TRUE** zurück. Wenn der Fehlercode nicht gültig ist und der Prozess beim Auftreten der Ausnahme fehlschlagen muss, wird der Fehlercode nicht zur Tabelle hinzugefügt.

**Technologie-Stack**
+ Amazon Aurora PostgreSQL
+ pgAdmin
+ Oracle SQL Developer

## Tools
<a name="migrate-oracle-database-error-codes-to-an-amazon-aurora-postgresql-compatible-database-tools"></a>
+ [Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, ACID-konforme relationale Datenbank-Engine, die Sie bei der Einrichtung, dem Betrieb und der Skalierung von PostgreSQL-Bereitstellungen unterstützt.
+ [pgAdmin](https://www.pgadmin.org/) ist ein Open-Source-Verwaltungs- und Entwicklungstool für PostgreSQL. Es bietet eine grafische Oberfläche, die die Erstellung, Wartung und Verwendung von Datenbankobjekten vereinfacht.
+ [Oracle SQL Developer](https://www.oracle.com/in/database/technologies/appdev/sqldeveloper-landing.html) ist eine kostenlose, integrierte Entwicklungsumgebung, die die Entwicklung und Verwaltung von Oracle Database sowohl in herkömmlichen als auch in Cloud-Umgebungen vereinfacht.

## Epen
<a name="migrate-oracle-database-error-codes-to-an-amazon-aurora-postgresql-compatible-database-epics"></a>

### Migrieren Sie Oracle-Datenbank-Fehlercodes in Ihre Amazon Aurora PostgreSQL-kompatible Datenbank
<a name="migrate-oracle-database-error-codes-to-your-amazon-aurora-postgresql-compatible-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Tabelle in der Amazon Aurora PostgreSQL-kompatiblen Datenbank. | Führen Sie den folgenden PostgreSQL-Befehl [CREATE TABLE aus](https://www.postgresql.org/docs/current/sql-createtable.html):<pre>(<br /><br />    source_error_code numeric NOT NULL,<br /><br />    target_error_code character varying NOT NULL,<br /><br />    valid_error character varying(1) NOT NULL<br /><br />); </pre> | PostgreSQL-Entwickler, Oracle, RDS/Aurora für PostgreSQL | 
| Fügen Sie der Tabelle PostgreSQL-Fehlercodes und die entsprechenden Oracle-Datenbank-Fehlercodes hinzu. | Führen Sie den PostgreSQL-Befehl [INSERT](https://www.postgresql.org/docs/current/sql-insert.html) aus, um die erforderlichen Fehlercodewerte zur Tabelle **error\$1codes** hinzuzufügen.Die PostgreSQL-Fehlercodes müssen den zeichenvariablen Datentyp (**SQLSTATE-Wert**) verwenden. Die Oracle-Fehlercodes müssen den numerischen Datentyp (**SQLCODE-Wert**) verwenden.**Beispiel für Insert-Anweisungen:**<pre>insert into error_codes values (-1817,'22007','Y');<br />insert into error_codes values (-1816,'22007','Y');<br />insert into error_codes values (-3114,'08006','N');</pre>Wenn Sie Oracle-spezifische Java Database Connectivity (JDBC) -Ausnahmen abfangen, müssen Sie diese Ausnahmen entweder durch generische datenbankübergreifende Ausnahmen ersetzen oder zu PostgreSQL-spezifischen Ausnahmen wechseln. | PostgreSQL-Entwickler, Oracle, RDS/Aurora für PostgreSQL | 
| Erstellen Sie eine PL/pgSQL Funktion zur Validierung von Fehlercodes. | Erstellen Sie eine PL/pgSQL Funktion, indem Sie den PostgreSQL-Befehl [CREATE FUNCTION](https://www.postgresql.org/docs/current/sql-createfunction.html) ausführen. Stellen Sie sicher, dass die Funktion Folgendes tut:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-oracle-database-error-codes-to-an-amazon-aurora-postgresql-compatible-database.html) | PostgreSQL-Entwickler, Oracle, RDS/Aurora für PostgreSQL | 
| Überprüfen Sie manuell neue Fehlercodes, während sie von der Funktion aufgezeichnet werden. PL/pgSQL  | Überprüfen Sie die neuen Fehlercodes manuell.**Wenn ein neuer Fehlercode für Ihren Anwendungsfall gültig ist, fügen Sie ihn der Tabelle **error\$1codes** hinzu, indem Sie den PostgreSQL INSERT-Befehl ausführen.**–oder–Wenn ein neuer Fehlercode für Ihren Anwendungsfall nicht gültig ist, fügen Sie ihn nicht der Tabelle hinzu. Die Prozesslogik schlägt weiterhin fehl und wird mit einer Ausnahme beendet, wenn der Fehler auftritt. | PostgreSQL-Entwickler, Oracle, RDS/Aurora für PostgreSQL | 

## Zugehörige Ressourcen
<a name="migrate-oracle-database-error-codes-to-an-amazon-aurora-postgresql-compatible-database-resources"></a>

[Anhang A. PostgreSQL-Fehlercodes](https://www.postgresql.org/docs/11/errcodes-appendix.html) (PostgreSQL-Dokumentation)

[Datenbank-Fehlermeldungen](https://docs.oracle.com/cd/E11882_01/server.112/e17766/toc.htm) (Oracle Database-Dokumentation)

# Migrieren Sie SAP ASE auf Amazon EC2 zu Amazon Aurora PostgreSQL-kompatibel mit AWS SCT und AWS DMS
<a name="migrate-sap-ase-on-amazon-ec2-to-amazon-aurora-postgresql-compatible-using-aws-sct-and-aws-dms"></a>

*Amit Kumar und Ankit Gupta, Amazon Web Services*

## Zusammenfassung
<a name="migrate-sap-ase-on-amazon-ec2-to-amazon-aurora-postgresql-compatible-using-aws-sct-and-aws-dms-summary"></a>

Dieses Muster beschreibt, wie eine SAP Adaptive Server Enterprise (SAP ASE) -Datenbank, die auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance gehostet wird, mithilfe des AWS Schema Conversion Tool (AWS SCT) und des AWS Database Migration Service (AWS DMS) zur Amazon Aurora PostgreSQL-kompatiblen Edition migriert wird. Das Muster konzentriert sich sowohl auf DDL-Konvertierungen (Data Definition Language) für gespeicherte Objekte als auch auf Datenmigration.

Aurora PostgreSQL-kompatibel unterstützt OLTP-Workloads (Online Transaction Processing). Dieser verwaltete Service bietet Konfigurationen, die bei Bedarf automatisch skaliert werden. Er kann Ihre Datenbank je nach den Anforderungen Ihrer Anwendung automatisch starten, herunterfahren, hoch- oder herunterskalieren. Sie können Ihre Datenbank in der Cloud ausführen, ohne Datenbankinstanzen zu verwalten. Aurora PostgreSQL-kompatibel bietet eine kostengünstige Option für seltene, intermittierende oder unvorhersehbare Workloads.

Der Migrationsprozess besteht aus zwei Hauptphasen:
+ Konvertieren des Datenbankschemas mithilfe von AWS SCT
+ Migrieren der Daten mithilfe von AWS DMS

Detaillierte Anweisungen für beide Phasen finden Sie im Abschnitt *Epics*. Informationen zur Behebung von Problemen, die spezifisch für die Verwendung von AWS DMS mit SAP ASE-Datenbanken sind, finden Sie unter [Problembehandlung mit SAP ASE](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Troubleshooting.html#CHAP_Troubleshooting.SAP) in der AWS DMS-Dokumentation.

## Voraussetzungen und Einschränkungen
<a name="migrate-sap-ase-on-amazon-ec2-to-amazon-aurora-postgresql-compatible-using-aws-sct-and-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine SAP ASE-Quelldatenbank auf einer EC2 Instance, in der Server-, Datenbank- und Listener-Services aktiv sind
+ Eine Aurora PostgreSQL-kompatible Zieldatenbank

**Einschränkungen**
+ Die Portnummer für Verbindungen muss 5432 sein.
+ Die Funktion [huge\$1pages](https://www.postgresql.org/docs/9.6/static/runtime-config-resource.html) ist standardmäßig aktiviert, kann aber geändert werden.
+ Point-in-time Die Granularität der Wiederherstellung (PITR) beträgt 5 Minuten.
+ Eine regionsübergreifende Replikation ist derzeit nicht verfügbar.
+ Die maximale Speichergröße für eine Aurora-Datenbank beträgt 128 TiB.
+ Sie können bis zu 15 Read Replicas erstellen.
+ Die Tabellengrößenbeschränkung wird nur durch die Größe des Aurora-Cluster-Volumes eingeschränkt, sodass die maximale Tabellengröße für einen Aurora PostgreSQL-kompatiblen DB-Cluster 32 TiB beträgt. Wir empfehlen, dass Sie sich an bewährte Methoden für das Tabellendesign halten, z. B. das Partitionieren großer Tabellen.

**Produktversionen**
+ Quelldatenbank: AWS DMS unterstützt derzeit SAP ASE 15, 15.5, 15.7 und 16.x. Aktuelle Informationen zur Unterstützung der SAP ASE-Version finden Sie im [AWS DMS-Benutzerhandbuch](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SAP.html).
+ Zieldatenbank: PostgreSQL 9.4 und höher (für Version 9.x), 10.x, 11.x, 12.x, 13.x und 14.x. Die neuesten unterstützten PostgreSQL-Versionen finden Sie im [AWS DMS-Benutzerhandbuch](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.PostgreSQL.html).
+ Amazon Aurora 1.x oder höher. Die neuesten Informationen finden Sie in der [Aurora-Dokumentation unter Aurora PostgreSQL-kompatible Releases und Engine-Versionen](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.Updates.20180305.html).

## Architektur
<a name="migrate-sap-ase-on-amazon-ec2-to-amazon-aurora-postgresql-compatible-using-aws-sct-and-aws-dms-architecture"></a>

**Quelltechnologie-Stack**
+ SAP ASE-Datenbank läuft auf Amazon EC2

**Zieltechnologie-Stack**
+ Aurora PostgreSQL-kompatible Datenbank

**Migrationsarchitektur**

![\[Migration einer SAP ASE-Datenbank zu Aurora PostgreSQL-kompatibel mithilfe von AWS SCT und AWS DMS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/07fbdea1-0242-40ae-8e5f-2ce4a620a047/images/a3b018f3-2e7b-4c37-a218-870c56132acb.png)


## Tools
<a name="migrate-sap-ase-on-amazon-ec2-to-amazon-aurora-postgresql-compatible-using-aws-sct-and-aws-dms-tools"></a>
+ [Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, ACID-konforme relationale Datenbank-Engine, die Sie bei der Einrichtung, dem Betrieb und der Skalierung von PostgreSQL-Bereitstellungen unterstützt.
+ Das [AWS Schema Conversion Tool (AWS SCT)](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) unterstützt heterogene Datenbankmigrationen, indem das Quelldatenbankschema und der Großteil des benutzerdefinierten Codes automatisch in ein Format konvertiert werden, das mit der Zieldatenbank kompatibel ist.
+ [AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt mehrere verschiedene Quell- und Zieldatenbanken. Weitere Informationen finden Sie unter [Quellen für Datenmigration](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.html) und [Ziele für die Datenmigration](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.html) in der AWS DMS-Dokumentation. Für die umfassendste Versions- und Funktionsunterstützung empfehlen wir Ihnen, die neueste Version von AWS DMS zu verwenden. 

## Epen
<a name="migrate-sap-ase-on-amazon-ec2-to-amazon-aurora-postgresql-compatible-using-aws-sct-and-aws-dms-epics"></a>

### Richte die Umgebung ein
<a name="set-up-the-environment"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie den Netzwerkzugriff in der EC2 Quellinstanz. | Richten Sie Sicherheitsgruppen in der EC2 Instanz ein, die Ihre SAP ASE-Quelldatenbank hostet.Anweisungen finden Sie in der [ EC2 Amazon-Dokumentation unter EC2 Amazon-Sicherheitsgruppen für Linux-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-security-groups.html?icmpid=docs_ec2_console). | Systemadministrator | 
| Erstellen Sie Ihren Aurora PostgreSQL-kompatiblen Ziel-DB-Cluster. | Installieren, konfigurieren und starten Sie einen Aurora PostgreSQL-kompatiblen Cluster für Ihre Zieldatenbank.Weitere Informationen finden Sie unter [Erstellen eines Amazon Aurora Aurora-DB-Clusters](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.CreateInstance.html) in der Aurora-Dokumentation. | DBA | 
| Richten Sie die Autorisierung für den Ziel-DB-Cluster ein. | Richten Sie Sicherheitsgruppen und Firewalls für die Zieldatenbank ein.Anweisungen finden Sie in der Aurora-Dokumentation unter [Erstellen eines Amazon Aurora Aurora-DB-Clusters](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.CreateInstance.html). | DBA, Systemadministrator | 

### Konvertieren Sie Ihr Datenbankschema mit AWS SCT
<a name="convert-your-database-schema-with-aws-sct"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Starten Sie AWS SCT. | Starten Sie AWS SCT, indem Sie den Anweisungen in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_GettingStarted.html) folgen.AWS SCT bietet eine projektbasierte Benutzeroberfläche zur automatischen Konvertierung des Datenbankschemas Ihrer SAP ASE-Quelldatenbank in ein Format, das mit Ihrer Aurora PostgreSQL-kompatiblen Ziel-DB-Instance kompatibel ist. | DBA | 
| Erstellen Sie AWS SCT-Endpoints. | Erstellen Sie Endpunkte für die Quell-SAP-ASE- und Ziel-PostgreSQL-Datenbanken.Anweisungen finden Sie in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html#CHAP_UserInterface.AddServers). | DBA | 
| Erstellen Sie einen Bewertungsbericht. | Erstellen Sie einen Bewertungsbericht zur Datenbankmigration, um die Migration zu bewerten und alle inkompatiblen Objekte und Funktionen zu erkennen.Anweisungen finden Sie in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_UserInterface.html#CHAP_UserInterface.AssessmentReport). | DBA | 
| Konvertiert das Schema. | Konvertieren Sie das Datenbankschema, indem Sie den Anweisungen in der [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Converting.html) folgen. | DBA | 
| Datenbankobjekte validieren. | Wenn AWS SCT ein Datenbankobjekt nicht konvertieren kann, identifiziert es seinen Namen und andere Details. Sie müssen diese Objekte manuell konvertieren.Um diese Diskrepanzen zu identifizieren, folgen Sie den Anweisungen im AWS-Blogbeitrag [Datenbankobjekte nach der Migration von SAP ASE zu Amazon RDS for PostgreSQL oder Amazon Aurora PostgreSQL validieren](https://aws.amazon.com/blogs/database/validate-database-objects-after-migrating-from-sap-ase-to-amazon-rds-for-postgresql-or-amazon-aurora-postgresql/). | DBA | 

### Analysieren Sie die AWS DMS-Migration
<a name="analyze-the-aws-dms-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Quell- und Zieldatenbankversionen. | Überprüfen Sie die SAP ASE-Datenbankversionen auf Kompatibilität mit AWS DMS. Weitere Informationen finden Sie unter [Quellen für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Introduction.Sources.html#CHAP_Introduction.Sources.title) und [Ziele für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Introduction.Targets.html) in der AWS DMS-Dokumentation. | DBA | 
| Identifizieren Sie die Anforderungen für den Speichertyp und die Kapazität. | Wählen Sie die geeignete Speicherkapazität für die Zieldatenbank auf der Grundlage der Größe Ihrer Quelldatenbank aus. | DBA, Systemadministrator | 
| Wählen Sie den Instanztyp, die Kapazität und andere Funktionen der Replikationsinstanz aus. | Wählen Sie den Instanztyp, die Kapazität, die Speicherfunktionen und die Netzwerkfunktionen, die Ihren Anforderungen entsprechen.Weitere Informationen finden Sie in [der AWS DMS-Dokumentation unter Auswahl der richtigen AWS DMS-Replikationsinstanz für Ihre Migration](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_ReplicationInstance.Types.html). | DBA, Systemadministrator | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff. | Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken.Folgen Sie den Anweisungen unter [Einrichten eines Netzwerks für eine Replikationsinstanz](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_ReplicationInstance.VPC.html) in der AWS DMS-Dokumentation. | DBA, Systemadministrator | 

### Migrieren Sie die Daten
<a name="migrate-the-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie die Daten, indem Sie eine Migrationsaufgabe in AWS DMS erstellen. | Um Daten zu migrieren, erstellen Sie eine Aufgabe und folgen Sie den Anweisungen in der [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.Creating.html). Wir empfehlen Ihnen, die neueste Version von AWS DMS zu verwenden, um die umfassendste Version von Versionen und Funktionen zu erhalten. | DBA | 
| Validieren Sie die Daten. | Um zu überprüfen, ob Ihre Daten korrekt von der Quelldatenbank zur Zieldatenbank migriert wurden, befolgen Sie die [Datenvalidierungsrichtlinien](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Validating.html) in der AWS DMS-Dokumentation. | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie die Strategie zur Anwendungsmigration. | Wählen Sie eine der [sieben Strategien (7Rs)](https://docs.aws.amazon.com/prescriptive-guidance/latest/strategy-database-migration/planning-phase.html) für die Migration von Anwendungen in die Cloud. | DBA, App-Besitzer, Systemadministrator | 
| Folgen Sie der Strategie zur Anwendungsmigration. | Führen Sie die vom Anwendungsteam identifizierten Datenbankaufgaben aus, einschließlich der Aktualisierung der DNS-Verbindungsdetails für die Zieldatenbank und der Aktualisierung dynamischer Abfragen.  | DBA, App-Besitzer, Systemadministrator | 

### Wechseln Sie zur Zieldatenbank
<a name="cut-over-to-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die Anwendungsclients auf die neue Infrastruktur um. | Wechseln Sie die Verbindung von der Quelldatenbank zur Zieldatenbank. Weitere Informationen finden Sie im Abschnitt [Cutover](https://docs.aws.amazon.com/prescriptive-guidance/latest/strategy-database-migration/cut-over.html) der *Migrationsstrategie für relationale Datenbanken*. | DBA, App-Besitzer, Systemadministrator | 

### Schließen Sie das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie die temporären AWS-Ressourcen herunter. | Beenden Sie alle Migrationsaufgaben, Replikationsinstanzen, Endpunkte und andere AWS SCT- und AWS DMS-Ressourcen. Weitere Informationen finden Sie in [der AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.Replication.html#CHAP_GettingStarted.Replication.Deleting). | DBA, Systemadministrator | 
| Überprüfen und validieren Sie die Projektdokumente. | Überprüfen Sie alle Schritte in der Projektdokumentation, um sicherzustellen, dass alle Aufgaben erfolgreich abgeschlossen wurden. | DBA, App-Besitzer, Systemadministrator | 
| Schließt das Projekt. | Schließen Sie das Migrationsprojekt und geben Sie Feedback. | DBA, App-Besitzer, Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-sap-ase-on-amazon-ec2-to-amazon-aurora-postgresql-compatible-using-aws-sct-and-aws-dms-resources"></a>

**Referenzen**
+ [Verschlüsselte Verbindungen für PostgreSQL-DB-Instances in Amazon RDS aktivieren](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/enable-encrypted-connections-for-postgresql-db-instances-in-amazon-rds.html) (AWS Prescriptive Guidance)
+ [Transport von PostgreSQL-Datenbanken zwischen zwei Amazon RDS-DB-Instances mithilfe von pg\$1transport](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg_transport.html) (AWS Prescriptive Guidance)
+ [Amazon-Aurora-Preise](https://aws.amazon.com/rds/aurora/pricing/)
+ [Bewährte Methoden mit Amazon Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/AuroraPostgreSQL.BestPractices.html) (Amazon Aurora Aurora-Dokumentation)
+ [AWS SCT-Dokumentation](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
+ [Verwenden einer SAP ASE-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SAP.html)

**Tutorials und Videos**
+ [Erste Schritte mit AWS Database Migration Service](https://aws.amazon.com/dms/getting-started/)
+ [AWS Database Migration Service](https://www.youtube.com/watch?v=zb4GcjEdl8U) (Video)

# Migrieren Sie Windows-SSL-Zertifikate mithilfe von ACM zu einem Application Load Balancer
<a name="migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm"></a>

*Chandra Sekhar Yaratha und Igor Kovalchuk, Amazon Web Services*

## Zusammenfassung
<a name="migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm-summary"></a>

Das Muster enthält Anleitungen zur Verwendung von AWS Certificate Manager (ACM) zur Migration vorhandener Secure Sockets Layer (SSL) -Zertifikate von Websites, die auf lokalen Servern oder Amazon Elastic Compute Cloud (Amazon EC2) -Instances auf Microsoft Internet Information Services (IIS) gehostet werden. Die SSL-Zertifikate können dann mit Elastic Load Balancing auf AWS verwendet werden. 

SSL schützt Ihre Daten, bestätigt Ihre Identität, sorgt für bessere Platzierungen in Suchmaschinen, trägt zur Erfüllung der Anforderungen des Payment Card Industry Data Security Standard (PCI DSS) bei und stärkt das Kundenvertrauen. Entwickler und IT-Teams, die diese Workloads verwalten, möchten, dass ihre Webanwendungen und Infrastruktur, einschließlich des IIS-Servers und des Windows-Servers, ihren grundlegenden Richtlinien entsprechen.

Dieses Muster umfasst den manuellen Export vorhandener SSL-Zertifikate aus Microsoft IIS, deren Konvertierung vom PFX-Format (Personal Information Exchange) in das von ACM unterstützte PEM-Format (Private Enhanced Mail) und das anschließende Importieren in ACM in Ihrem AWS-Konto. Außerdem wird beschrieben, wie Sie einen Application Load Balancer für Ihre Anwendung erstellen und den Application Load Balancer so konfigurieren, dass er Ihre importierten Zertifikate verwendet. HTTPS-Verbindungen werden dann auf dem Application Load Balancer beendet, und Sie benötigen keinen weiteren Konfigurationsaufwand auf dem Webserver. Weitere Informationen finden Sie unter [Einen HTTPS-Listener für Ihren Application Load Balancer erstellen](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/create-https-listener.html).

Windows-Server verwenden PFX- oder .P12-Dateien, um die öffentliche Schlüsseldatei (SSL-Zertifikat) und ihre eindeutige private Schlüsseldatei zu speichern. Die Zertifizierungsstelle (CA) stellt Ihnen Ihre öffentliche Schlüsseldatei zur Verfügung. Sie verwenden Ihren Server, um die zugehörige private Schlüsseldatei zu generieren, in der die Certificate Signing Request (CSR) erstellt wurde.

## Voraussetzungen und Einschränkungen
<a name="migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine virtuelle private Cloud (VPC) auf AWS mit mindestens einem privaten und einem öffentlichen Subnetz in jeder Availability Zone, die von Ihren Zielen verwendet wird
+ IIS-Version 8.0 oder höher, läuft auf Windows Server 2012 oder höher
+ Eine Webanwendung, die auf IIS ausgeführt wird
+ Administratorzugriff auf den IIS-Server

## Architektur
<a name="migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm-architecture"></a>

**Quelltechnologie-Stack**
+ IIS-Webserver-Implementierung mit SSL, um sicherzustellen, dass Daten sicher in einer verschlüsselten Verbindung (HTTPS) übertragen werden 

**Quellarchitektur**

![\[Quellarchitektur für die Migration von Windows-SSL-Zertifikaten zu Application Load Balancer mithilfe von ACM\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/cad6e465-da39-4819-970e-10e1c30e0a1f/images/e63efb6f-205b-4e20-a043-6bc954470191.png)


**Zieltechnologie-Stack**
+ ACM-Zertifikate in Ihrem AWS-Konto
+ Ein Application Load Balancer, der für die Verwendung importierter Zertifikate konfiguriert ist
+ Windows Server-Instanzen in den privaten Subnetzen

**Zielarchitektur**

![\[Zielarchitektur für die Migration von Windows-SSL-Zertifikaten zu Application Load Balancer mithilfe von ACM\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/cad6e465-da39-4819-970e-10e1c30e0a1f/images/45ac7fba-fbad-4c74-9b1f-80ca212dae08.png)


 

## Tools
<a name="migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm-tools"></a>
+ [AWS Certificate Manager (ACM)](https://docs.aws.amazon.com/acm/latest/userguide/acm-overview.html) unterstützt Sie bei der Erstellung, Speicherung und Erneuerung öffentlicher und privater SSL/TLS X.509-Zertifikate und -Schlüssel, die Ihre AWS-Websites und -Anwendungen schützen.
+ [Elastic Load Balancing (ELB)](https://docs.aws.amazon.com/elasticloadbalancing/latest/userguide/what-is-load-balancing.html) verteilt eingehenden Anwendungs- oder Netzwerkverkehr auf mehrere Ziele. Sie können beispielsweise den Datenverkehr auf EC2 Instances, Container und IP-Adressen in einer oder mehreren Availability Zones verteilen.

## Best Practices
<a name="migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm-best-practices"></a>
+ Erzwingen Sie Verkehrsumleitungen von HTTP zu HTTPS.
+ Konfigurieren Sie Sicherheitsgruppen für Ihren Application Load Balancer ordnungsgemäß, um eingehenden Datenverkehr nur zu bestimmten Ports zuzulassen.
+ Starten Sie Ihre EC2 Instances in verschiedenen Availability Zones, um eine hohe Verfügbarkeit sicherzustellen.
+ Konfigurieren Sie die Domain Ihrer Anwendung so, dass sie auf den DNS-Namen des Application Load Balancers statt auf dessen IP-Adresse verweist.
+ [Stellen Sie sicher, dass für den Application Load Balancer Integritätsprüfungen auf Anwendungsebene konfiguriert sind.](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/target-group-health-checks.html)
+ Konfigurieren Sie den Schwellenwert für Integritätsprüfungen.
+ Verwenden Sie [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/), um den Application Load Balancer zu überwachen.

## Epen
<a name="migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm-epics"></a>

### Exportieren Sie eine PFX-Datei
<a name="export-a-pfx-file"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Exportieren Sie die PFX-Datei von Windows Server. | So exportieren Sie das SSL-Zertifikat als PFX-Datei aus dem lokalen IIS-Manager in Windows Server:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm.html)Ihre PFX-Datei sollte jetzt an dem von Ihnen angegebenen Speicherort und Pfad gespeichert werden. | Systemadministrator | 

### Konvertieren Sie das PFX-kodierte Zertifikat in das PEM-Format
<a name="convert-the-pfx-encoded-certificate-to-pem-format"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie das OpenSSL-Toolkit herunter und installieren Sie es. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm.html) | Systemadministrator | 
| Konvertieren Sie das PFX-kodierte Zertifikat in das PEM-Format. | Mit den folgenden Schritten wird die PFX-kodierte, signierte Zertifikatsdatei in drei Dateien im PEM-Format konvertiert:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm.html)Um das PFX-kodierte Zertifikat zu konvertieren:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm.html) | Systemadministrator | 

### Importieren Sie ein Zertifikat in ACM
<a name="import-a-certificate-into-acm"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie den Import des Zertifikats vor. | Wählen Sie in der [ACM-Konsole](https://console.aws.amazon.com/acm/home) die Option **Zertifikat importieren** aus. | Cloud-Administrator | 
| Geben Sie die Zertifizierungsstelle an. | Fügen Sie in das **Feld Zertifikatshauptteil** das PEM-kodierte Zertifikat ein, das Sie importieren möchten. Weitere Informationen zu den Befehlen und Schritten, die in diesem und anderen Aufgaben in diesem Epos beschrieben werden, finden Sie in der [ACM-Dokumentation unter Importieren eines Zertifikats](https://docs.aws.amazon.com/acm/latest/userguide/import-certificate-api-cli.html). | Cloud-Administrator | 
| Geben Sie den privaten Schlüssel des Zertifikats an. | Fügen Sie für **Certificate private key** den PEM-kodierten, unverschlüsselten privaten Schlüssel ein, der mit dem öffentlichen Schlüssel des Zertifikats übereinstimmt. | Cloud-Administrator | 
| Geben Sie die Zertifikatskette an. | Fügen Sie für **Certificate chain** die PEM-kodierte Zertifikatskette ein, die in der Datei gespeichert ist. `CertificateChain.pem` | Cloud-Administrator | 
| Importieren Sie das Zertifikat. | Wählen Sie **Review and import**. Vergewissern Sie sich, dass die Informationen zu Ihrem Zertifikat korrekt sind, und wählen Sie dann **Import** aus. | Cloud-Administrator | 

### Erstellen eines Application Load Balancers
<a name="create-an-application-load-balancer"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen und konfigurieren Sie den Load Balancer und die Listener. | Folgen Sie den Anweisungen in der [Elastic Load Balancing Balancing-Dokumentation](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/create-application-load-balancer.html), um eine Zielgruppe zu konfigurieren, Ziele zu registrieren und einen Application Load Balancer und Listener zu erstellen. Fügen Sie einen zweiten Listener (HTTPS) für Port 443 hinzu. | Cloud-Administrator | 

## Fehlerbehebung
<a name="migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Windows PowerShell erkennt den OpenSSL-Befehl nicht, auch wenn Sie ihn dem Systempfad hinzugefügt haben. | Stellen Sie `$env:path` sicher, dass es den Speicherort der OpenSSL-Binärdateien enthält.Ist dies nicht der Fall, führen Sie den folgenden Befehl in aus: PowerShell<pre>$env:path = $env:path + ";C:\OpenSSL-Win64\bin"</pre> | 

## Zugehörige Ressourcen
<a name="migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm-resources"></a>

**Ein Zertifikat in ACM importieren**
+ [ACM-Konsole](https://console.aws.amazon.com/acm/home)
+ [Zertifikat und Schlüsselformat für den Import](https://docs.aws.amazon.com/acm/latest/userguide/import-certificate-format.html)
+ [Ein Zertifikat importieren](https://aws.amazon.com/blogs/security/how-to-import-pfx-formatted-certificates-into-aws-certificate-manager-using-openssl/)
+ [AWS Certificate Manager Manager-Benutzerhandbuch](https://docs.aws.amazon.com/acm/latest/userguide/acm-overview.html)

**Einen Application Load Balancer erstellen**
+ [Erstellen Sie einen Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/create-application-load-balancer.html)
+ [Application Load Balancer Balancer-Benutzerhandbuch](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html)

# Migrieren Sie eine Messaging-Warteschlange von Microsoft Azure Service Bus zu Amazon SQS
<a name="migrate-a-messaging-queue-from-microsoft-azure-service-bus-to-amazon-sqs"></a>

*Nisha Gambhir, Amazon Web Services*

## Zusammenfassung
<a name="migrate-a-messaging-queue-from-microsoft-azure-service-bus-to-amazon-sqs-summary"></a>

Dieses Muster beschreibt, wie Sie eine.NET Framework- oder .NET Core-Web- oder Konsolenanwendung von der Microsoft Azure Service Bus-Queue-Messaging-Plattform zu Amazon Simple Queue Service (Amazon SQS) migrieren.

Anwendungen verwenden Messaging-Dienste, um Daten an andere Anwendungen zu senden und Daten von anderen Anwendungen zu empfangen. Diese Dienste helfen beim Aufbau entkoppelter, hoch skalierbarer Microservices, verteilter Systeme und serverloser Anwendungen in der Cloud.

Azure Service Bus-Warteschlangen sind Teil einer umfassenderen Azure-Messaging-Infrastruktur, die Warteschlangen und Messaging unterstützt. publish/subscribe  

Amazon SQS ist ein vollständig verwalteter Message Queuing-Service, mit dem Sie Microservices, verteilte Systeme und serverlose Anwendungen entkoppeln und skalieren können. Amazon SQS beseitigt die Komplexität und den Aufwand, die mit der Verwaltung und dem Betrieb nachrichtenorientierter Middleware verbunden sind, und ermöglicht es Entwicklern, sich auf differenzierte Aufgaben zu konzentrieren. Mit Amazon SQS können Sie Nachrichten zwischen Softwarekomponenten in beliebiger Menge senden, speichern und empfangen, ohne dass Nachrichten verloren gehen oder andere Dienste verfügbar sein müssen.

## Voraussetzungen und Einschränkungen
<a name="migrate-a-messaging-queue-from-microsoft-azure-service-bus-to-amazon-sqs-prerequisites-and-limitations"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto 
+ Eine.NET Framework- oder .NET Core-Web- oder Konsolenanwendung, die Azure Service Bus-Warteschlangen verwendet (Beispielcode im Anhang)

**Produktversionen**
+ .NET Framework 3.5 oder höher oder.NET Core 1.0.1, 2.0.0 oder höher

## Architektur
<a name="migrate-a-messaging-queue-from-microsoft-azure-service-bus-to-amazon-sqs-architecture"></a>

**Quelltechnologie-Stack**
+ Eine.NET-Web- oder Konsolenanwendung (Core oder Framework), die eine Azure Service Bus-Warteschlange zum Senden von Nachrichten verwendet

 

**Zieltechnologie-Stack**
+ Amazon SQS

## Tools
<a name="migrate-a-messaging-queue-from-microsoft-azure-service-bus-to-amazon-sqs-tools"></a>

**Tools**
+ Microsoft Visual Studio

**Code**

So erstellen Sie eine AWS Identity and Access Management (IAM) -Richtlinie für Amazon SQS:

1. Melden Sie sich in der AWS-Managementkonsole an und öffnen Sie die IAM-Konsole unter [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/).

2. Wählen Sie im Navigationsbereich auf der linken Seite **Policies** (Richtlinien) und dann **Create Policy** (Richtlinie erstellen) aus.

3. Wählen Sie die Registerkarte **JSON** und fügen Sie den folgenden Code ein:

```
{
   "Version": "2012-10-17",		 	 	 
   "Statement": [
      {
         "Sid": "VisualEditor0",
         "Effect": "Allow",
         "Action": [
            "sqs:DeleteMessage",
            "sqs:GetQueueUrl",
            "sqs:ChangeMessageVisibility",
            "sqs:SendMessageBatch",
            "sqs:ReceiveMessage",
            "sqs:SendMessage",
            "sqs:GetQueueAttributes",
            "sqs:ListQueueTags",
            "sqs:ListDeadLetterSourceQueues",
            "sqs:DeleteMessageBatch",
            "sqs:PurgeQueue",
            "sqs:DeleteQueue",
            "sqs:CreateQueue",
            "sqs:ChangeMessageVisibilityBatch",
            "sqs:SetQueueAttributes"
         ],
         "Resource": "arn:aws:sqs:*:<AccountId>:*"
      },
      {
         "Sid": "VisualEditor1",
         "Effect": "Allow",
         "Action": "sqs:ListQueues",
         "Resource": "*"
      }
   ]
}
```

4. Wählen Sie **Richtlinie überprüfen**, geben Sie einen Namen ein und wählen Sie dann **Richtlinie erstellen** aus.

5. Fügen Sie die neu erstellte Richtlinie Ihrer vorhandenen IAM-Rolle hinzu oder erstellen Sie eine neue Rolle.

## Epen
<a name="migrate-a-messaging-queue-from-microsoft-azure-service-bus-to-amazon-sqs-epics"></a>

### Amazon SQS in AWS einrichten
<a name="set-up-amazon-sqs-in-aws"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine IAM-Richtlinie für Amazon SQS. | Erstellen Sie die IAM-Richtlinie, die den Zugriff auf Amazon SQS ermöglicht. Eine Beispielrichtlinie finden Sie im Abschnitt Code. | Systemingenieur | 
| Erstellen Sie ein AWS-Profil. | Erstellen Sie ein neues Profil, indem Sie die AWS-Tools für den PowerShell Befehl Set- ausführenAWSCredential. Dieser Befehl speichert Ihren Zugriffsschlüssel und Ihren geheimen Schlüssel in Ihrer Standardanmeldedatei unter dem von Ihnen angegebenen Profilnamen. Verknüpfen Sie die Amazon SQS SQS-Richtlinie, die Sie zuvor erstellt haben, mit diesem Konto. Bewahren Sie die AWS-Zugriffsschlüssel-ID und den geheimen Zugriffsschlüssel auf. Diese werden in den nächsten Schritten benötigt. | Systemingenieur | 
| Erstellen Sie eine SQS-Warteschlange. | Sie können eine Standardwarteschlange oder eine FIFO-Warteschlange (First In, First Out) erstellen. Anweisungen finden Sie unter dem Link im Abschnitt Referenzen. | Systemingenieur | 

### Überarbeiten Sie Ihren .NET-Anwendungscode
<a name="revise-your-net-application-code"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie das AWS Toolkit for Visual Studio. | Dieses Toolkit ist eine Erweiterung für Microsoft Visual Studio und erleichtert Ihnen das Erstellen und Bereitstellen von.NET-Anwendungen in AWS. Anweisungen zur Installation und Verwendung finden Sie unter dem Link im Abschnitt Referenzen. | Entwickler der Anwendung | 
| Installieren Sie das AWSSDK .SQS-Paket. NuGet  | Sie AWSSDK können.SQS installieren, indem Sie in Visual Studio „ NuGet Package verwalten“ wählen oder den Befehl „ AWSSDKInstall-Package .SQS“ ausführen. | Entwickler der Anwendung | 
| Erstellen Sie ein AWSCredentials Objekt in Ihrer .NET-Anwendung. | Die Beispielanwendung im Anhang zeigt, wie Sie ein AWSCredentials Basic-Objekt erstellen, das von AWSCredentials erbt. Sie können die Zugriffsschlüssel-ID und den geheimen Zugriffsschlüssel von früher verwenden oder das Objekt diese zur Laufzeit als Teil des Benutzerprofils aus dem Ordner „.aws“ auswählen lassen. | Entwickler der Anwendung | 
| Erstellen Sie ein SQS-Client-Objekt. | Erstellen Sie ein SQS-Client-Objekt (AmazonSQSClient) für.NET Framework. Dies ist Teil des Amazon.SQS-Namespace. Dieses Objekt ist anstelle von IQueue Client erforderlich, der Teil von Microsoft.Azure ist. ServiceBus Namespace. | Entwickler von Anwendungen | 
| Rufen Sie die SendMessageAsync Methode auf, um Nachrichten an die SQS-Warteschlange zu senden. | Ändern Sie den Code, der die Nachricht an die Warteschlange sendet, um die zu verwenden. amazonSqsClient SendMessageAsync Methode. Einzelheiten finden Sie im beigefügten Codebeispiel. | Entwickler der Anwendung | 
| Rufen Sie die ReceiveMessageAsync Methode auf, um Nachrichten aus der SQS-Warteschlange zu empfangen. | Ändern Sie den Code, der die Nachricht empfängt, um den zu verwenden. amazonSqsClient ReceiveMessageAsync Methode. Einzelheiten finden Sie im beigefügten Codebeispiel. | Entwickler der Anwendung | 
| Rufen Sie die DeleteMessageAsync Methode auf, um Nachrichten aus der SQS-Warteschlange zu löschen. | Um Nachrichten zu löschen, ändern Sie den Code im QueueClient. CompleteAsync Methode zum. amazonSqsClient DeleteMessageAsync Methode. Einzelheiten finden Sie im beigefügten Codebeispiel. | Entwickler der Anwendung | 

## Zugehörige Ressourcen
<a name="migrate-a-messaging-queue-from-microsoft-azure-service-bus-to-amazon-sqs-related-resources"></a>
+ [AWS SDK for .NET Entwicklerhandbuch](https://docs.aws.amazon.com/sdk-for-net/v3/developer-guide/welcome.html)
+ [Nachrichtenübermittlung mit Amazon SQS](https://docs.aws.amazon.com/sdk-for-net/v3/developer-guide/sqs-apis-intro.html)
+ [Erstellen und Verwenden einer Amazon SQS SQS-Warteschlange mit dem AWS SDK for .NET](https://docs.aws.amazon.com/sdk-for-net/v2/developer-guide/how-to-sqs.html)
+ [Eine Amazon SQS SQS-Nachricht senden](https://docs.aws.amazon.com/sdk-for-net/v2/developer-guide/SendMessage.html)
+ [Empfangen einer Nachricht aus einer Amazon SQS SQS-Warteschlange](https://docs.aws.amazon.com/sdk-for-net/v2/developer-guide/ReceiveMessage.html)
+ [Eine Nachricht aus einer Amazon SQS SQS-Warteschlange löschen](https://docs.aws.amazon.com/sdk-for-net/v2/developer-guide/DeleteMessage.html)
+ [AWS Toolkit for Visual Studio](https://docs.aws.amazon.com/toolkit-for-visual-studio/latest/user-guide/welcome.html)

## Zusätzliche Informationen
<a name="migrate-a-messaging-queue-from-microsoft-azure-service-bus-to-amazon-sqs-additional-information"></a>

Dieses Muster umfasst zwei Beispielanwendungen (siehe Abschnitt Anlagen):
+ **AzureSbTestApp**enthält Code, der die Azure Service Bus-Warteschlange verwendet.
+ **AmazonSqsTestApp**verwendet Amazon SQS. Dies ist eine Konsolenanwendung, die .NET Core 2.2 verwendet und Beispiele für das Senden und Empfangen von Nachrichten enthält.

Hinweise:
+ QueueClient ist ein Objekt von IQueue Client, das Teil von Microsoft.Azure ist. ServiceBus Namespace (in Microsoft.Azure enthalten). ServiceBus NuGet Paket).
+ amazonSqsClient ist ein Objekt von AmazonSQSClient, das Teil des Amazon.SQS-Namespace ist (im .SQS-Paket enthalten). AWSSDK NuGet 
+ Je nachdem, wo der Code ausgeführt wird, z. B. ob er ausgeführt wird, benötigt die Rolle die Berechtigung EC2, in die SQS-Warteschlange zu schreiben.

## Anlagen
<a name="attachments-25334709-7000-4f60-87ed-ea41acb41a99"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/25334709-7000-4f60-87ed-ea41acb41a99/attachments/attachment.zip)

# Migrieren Sie eine Oracle JD EnterpriseOne Edwards-Datenbank mithilfe von Oracle Data Pump und AWS DMS zu AWS
<a name="migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms"></a>

*Thanigaivel Thirumalai, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-summary"></a>

Sie können Ihre JD EnterpriseOne Edwards-Datenbank auf [Amazon Relational Database Service (Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html)) migrieren und ausführen. Wenn Sie Ihre Datenbank zu Amazon RDS migrieren, kann AWS sich um Backup-Aufgaben und die Einrichtung von Hochverfügbarkeit kümmern, sodass Sie sich auf die Wartung Ihrer EnterpriseOne Anwendung und ihrer Funktionalität konzentrieren können. Eine umfassende Liste der wichtigsten Faktoren, die während des Migrationsprozesses zu berücksichtigen sind, finden Sie unter [Strategien zur Oracle-Datenbankmigration](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/strategies.html) in AWS Prescriptive Guidance.

Es gibt mehrere Möglichkeiten, eine EnterpriseOne Datenbank zu migrieren, darunter:
+ Verwenden von Oracle Universal Batch Engine (UBE) R98403 für die Schema- und Tabellenerstellung und Verwendung von AWS Database Migration Service (AWS DMS) für die Migration
+ Verwendung nativer DB-Tools für die Schema- und Tabellenerstellung und Verwendung von AWS DMS für die Migration
+ Verwendung von nativen DB-Tools für die Migration vorhandener Daten (Volllast) und Verwendung von AWS DMS für Change Data Capture-Aufgaben (CDC)

Dieses Muster deckt die dritte Option ab. Es wird erklärt, wie Sie Ihre lokalen EnterpriseOne Datenbanken mithilfe von Oracle Data Pump mit [AWS DMS](https://aws.amazon.com/dms) und seiner CDC-Funktion zu Amazon RDS for Oracle migrieren.

[Oracle JD Edwards EnterpriseOne](https://www.oracle.com/applications/jd-edwards-enterpriseone/) ist eine ERP-Lösung (Enterprise Resource Planning) für Unternehmen, die Produkte oder Sachanlagen herstellen, konstruieren, vertreiben, warten oder verwalten. JD Edwards EnterpriseOne unterstützt verschiedene Hardware, Betriebssysteme und Datenbankplattformen.

Bei der Migration kritischer ERP-Anwendungen wie JD Edwards EnterpriseOne ist die Minimierung von Ausfallzeiten von entscheidender Bedeutung. AWS DMS minimiert Ausfallzeiten, indem es sowohl Volllast als auch kontinuierliche Replikation von der Quelldatenbank zur Zieldatenbank unterstützt. AWS DMS bietet außerdem Echtzeitüberwachung und Protokollierung der Migration, sodass Sie Probleme, die zu Ausfallzeiten führen könnten, identifizieren und lösen können.

Wenn Sie Änderungen mit AWS DMS replizieren, müssen Sie eine Zeit- oder Systemänderungsnummer (SCN) als Ausgangspunkt für das Lesen von Änderungen aus den Datenbankprotokollen angeben. Es ist wichtig, diese Protokolle für einen bestimmten Zeitraum (wir empfehlen 15 Tage) auf dem Server zugänglich zu halten, um sicherzustellen, dass AWS DMS Zugriff auf diese Änderungen hat.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Eine Amazon RDS for Oracle Oracle-Datenbank, die in Ihrer AWS-Cloud-Umgebung als Zieldatenbank bereitgestellt wird. Anweisungen finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_GettingStarted.CreatingConnecting.Oracle.html).
+ Eine EnterpriseOne Datenbank, die lokal oder auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance auf AWS läuft.
**Anmerkung**  
Dieses Muster ist für die Migration von lokal zu AWS konzipiert, wurde jedoch mithilfe einer EnterpriseOne Datenbank auf einer EC2-Instance getestet. Wenn Sie eine Migration von Ihrer lokalen Umgebung planen, müssen Sie die entsprechende Netzwerkkonnektivität konfigurieren.
+ Schemadetails. Identifizieren Sie, für welches Oracle-Datenbankschema (z. B. DV920) Sie migrieren möchten EnterpriseOne. Bevor Sie mit dem Migrationsprozess beginnen, sollten Sie die folgenden Informationen über das Schema sammeln:
  + Größe des Schemas
  + Die Anzahl der Objekte pro Objekttyp
  + Die Anzahl der ungültigen Objekte

**Einschränkungen**
+ Sie müssen alle gewünschten Schemas auf der Amazon RDS for Oracle Oracle-Zieldatenbank erstellen — AWS DMS erstellt diese nicht für Sie. (Im Abschnitt [Epics](#migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-epics) wird beschrieben, wie Data Pump zum Exportieren und Importieren von Schemas verwendet wird.) Der Schemaname muss für die Oracle-Zieldatenbank bereits existieren. Tabellen aus dem Quellschema werden in den Benutzer oder das Schema importiert, und AWS DMS verwendet das Administrator- oder Systemkonto, um eine Verbindung mit der Ziel-Instance herzustellen. Um mehrere Schemata zu migrieren, können Sie mehrere Replikationsaufgaben erstellen. Sie können Daten auch in verschiedene Schemas auf einer Zielinstanz migrieren. Verwenden Sie dazu Schematransformationsregeln für die AWS DMS-Tabellenzuordnungen.
+ Dieses Muster wurde mit einem Demo-Datensatz getestet. Wir empfehlen Ihnen, die Kompatibilität Ihres Datensatzes und die Anpassung zu überprüfen.
+ Dieses Muster verwendet eine EnterpriseOne Datenbank, die unter Microsoft Windows läuft. Sie können dasselbe Verfahren jedoch mit anderen Betriebssystemen verwenden, die von AWS DMS unterstützt werden.

## Architektur
<a name="migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-architecture"></a>

Das folgende Diagramm zeigt ein System, das EnterpriseOne auf einer Oracle-Datenbank als Quelldatenbank und einer Amazon RDS for Oracle Oracle-Datenbank als Zieldatenbank läuft. Die Daten werden aus der Oracle-Quelldatenbank exportiert und mithilfe von Oracle Data Pump in die Zieldatenbank Amazon RDS for Oracle importiert und für CDC-Updates mithilfe von AWS DMS repliziert.

![\[Diagram showing data replication from on-premises Oracle to Amazon RDS using AWS DMS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/c8ec3789-f80e-4f3a-a3f4-72a4541316b0/images/4e3e3477-2fe0-4a5d-b95e-05a8aafe8b68.png)


1. Oracle Data Pump extrahiert Daten aus der Quelldatenbank und die Daten werden an das Datenbankziel Amazon RDS for Oracle gesendet.

1. CDC-Daten werden von der Quelldatenbank an einen Quellendpunkt in AWS DMS gesendet.

1. Vom Quellendpunkt werden die Daten an die AWS DMS-Replikationsinstanz gesendet, wo die Replikationsaufgabe ausgeführt wird.

1. Nach Abschluss der Replikationsaufgabe werden die Daten an den Zielendpunkt in AWS DMS gesendet.

1. Vom Zielendpunkt werden die Daten an die Amazon RDS for Oracle Oracle-Datenbank-Instance gesendet.

## Tools
<a name="migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-tools"></a>

**AWS-Services**
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.
+ [Amazon Relational Database Service (Amazon RDS) für Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Oracle-Datenbank in der AWS-Cloud.

**Andere Dienste**
+ Mit [Oracle Data Pump](https://docs.oracle.com/cd/B19306_01/server.102/b14215/dp_overview.htm) können Sie Daten und Metadaten mit hoher Geschwindigkeit von einer Datenbank in eine andere verschieben.

## Best Practices
<a name="migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-best-practices"></a>

**Migrating LOBs**

Wenn Ihre Quelldatenbank große binäre Objekte (LOBs) enthält, die in die Zieldatenbank migriert werden müssen, bietet AWS DMS die folgenden Optionen:
+ **Vollständiger LOB-Modus** — AWS DMS migriert alle Daten LOBs von der Quell- zur Zieldatenbank, unabhängig von ihrer Größe. Die Migration ist zwar langsamer als die anderen Modi, hat aber den Vorteil, dass die Daten nicht gekürzt werden. Um die Leistung zu verbessern, können Sie für die neue Replikationsinstanz eine separate Aufgabe erstellen, um die Tabellen zu migrieren, LOBs die größer als ein paar Megabyte sind.
+ **Eingeschränkter LOB-Modus** — Sie geben die maximale Größe der LOB-Spaltendaten an, sodass AWS DMS Ressourcen vorab zuweisen und diese in großen Mengen anwenden kann. LOBs Wenn die Größe der LOB-Spalten die in der Aufgabe angegebene Größe überschreitet, kürzt AWS DMS die Daten und sendet Warnungen an die AWS DMS-Protokolldatei. Sie können die Leistung verbessern, indem Sie den eingeschränkten LOB-Modus verwenden, wenn Ihre LOB-Datengröße innerhalb der begrenzten LOB-Größe liegt.
+ **Inline-LOB-Modus** — Sie können migrieren, LOBs ohne die Daten zu kürzen oder die Leistung Ihrer Aufgabe zu beeinträchtigen, indem Sie sowohl kleine als auch große Daten replizieren. LOBs Geben Sie zunächst einen Wert für den `InlineLobMaxSize` Parameter an, der nur verfügbar ist, wenn der vollständige LOB-Modus auf eingestellt ist. `true` Die AWS DMS-Aufgabe überträgt die kleine LOBs Inline, was effizienter ist. Anschließend migriert AWS DMS die große Datei, LOBs indem es eine Suche aus der Quelltabelle durchführt. Der Inline-LOB-Modus funktioniert jedoch nur während der Volllastphase.

**Generieren von Sequenzwerten**

Während des AWS DMS-CDC-Prozesses werden inkrementelle Sequenznummern nicht aus der Quelldatenbank repliziert. Um Diskrepanzen bei den Sequenzwerten zu vermeiden, müssen Sie für alle Sequenzen den neuesten Sequenzwert aus der Quelle generieren und ihn auf die Amazon RDS for Oracle Oracle-Zieldatenbank anwenden.

**AWS Secrets Manager**

Um Ihnen bei der Verwaltung Ihrer Anmeldeinformationen zu helfen, empfehlen wir Ihnen, die Anweisungen im Blogbeitrag [Manage your AWS DMS-Endpoint Credentials with AWS Secrets Manager](https://aws.amazon.com/blogs/database/manage-your-aws-dms-endpoint-credentials-with-aws-secrets-manager/) zu befolgen.

**Leistung**
+ **Replikationsinstanzen** ‒ Anleitungen zur Auswahl der besten Instance-Größe finden [Sie unter Auswahl der besten Größe für eine Replikationsinstanz](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_BestPractices.SizingReplicationInstance.html) in der AWS DMS-Dokumentation.
+ **Konnektivitätsoptionen** ‒ Um Latenzprobleme zu vermeiden, empfehlen wir Ihnen, die richtige Verbindungsoption zu wählen. AWS Direct Connect bietet den kürzesten Weg zu AWS-Ressourcen, da es sich um eine dedizierte Verbindung zwischen Ihren Unternehmensrechenzentren und AWS handelt. Während der Übertragung verbleibt Ihr Netzwerkverkehr im globalen AWS-Netzwerk und wird niemals über das Internet übertragen. Dies reduziert die Wahrscheinlichkeit von Engpässen oder unerwarteten Erhöhungen der Latenz im Vergleich zur Verwendung von VPN oder dem öffentlichen Internet.
+ **Netzwerkbandbreite** ‒ Um die Leistung zu optimieren, stellen Sie sicher, dass Ihr Netzwerkdurchsatz schnell ist. Wenn Sie einen VPN-Tunnel zwischen Ihrer lokalen Quelldatenbank und AWS DMS verwenden, stellen Sie sicher, dass die Bandbreite für Ihre Arbeitslast ausreicht.
+ **Aufgabenparallelität** ‒ Sie können die Datenreplikation beschleunigen, indem Sie bei Volllast mehrere Tabellen parallel laden. Dieses Muster verwendet RDBMS-Endpunkte, sodass diese Option nur für den Vollladevorgang gilt. Die Aufgabenparallelität wird durch den `MaxFullLoadSubTasks` Parameter gesteuert, der bestimmt, wie viele Volllast-Unteraufgaben parallel ausgeführt werden. Standardmäßig ist dieser Parameter auf 8 gesetzt, was bedeutet, dass acht Tabellen (sofern in der Tabellenzuordnung ausgewählt) im Vollmodus zusammen geladen werden. Sie können diesen Parameter im Abschnitt mit den Einstellungen für Vollladeaufgaben des JSON-Skripts für die Aufgabe anpassen.
+ **Tabellenparallelität** ‒ Mit AWS DMS können Sie auch eine einzelne große Tabelle laden, indem Sie mehrere parallel Threads verwenden. Dies ist besonders nützlich für Oracle-Quelltabellen mit Milliarden von Datensätzen sowie mehreren Partitionen und Unterpartitionen. Wenn die Quelltabelle nicht partitioniert ist, können Sie Spaltengrenzen für parallel Ladevorgänge verwenden.
+ **Lasten aufteilen** ‒ Wenn Sie Lasten auf mehrere Aufgaben oder AWS DMS-Instanzen aufteilen, sollten Sie bei der Erfassung von Änderungen die Transaktionsgrenzen berücksichtigen.

## Epen
<a name="migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-epics"></a>

### Verwenden Sie Oracle Data Pump, um das EnterpriseOne Schema zu exportieren
<a name="use-oracle-data-pump-to-export-the-enterpriseone-schema"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Generieren Sie das SCN. | Wenn die Quelldatenbank aktiv ist und von der EnterpriseOne Anwendung verwendet wird, initiieren Sie den Datenexport mit Oracle Data Pump. Sie müssen zunächst eine System Change Number (SCN) aus der Quelldatenbank generieren, um sowohl die Datenkonsistenz beim Export mit Oracle Data Pump als auch als Ausgangspunkt für CDC in AWS DMS zu gewährleisten.Verwenden Sie die folgende SQL-Anweisung, um die aktuelle SCN aus Ihrer Quelldatenbank zu generieren:<pre>SQL> select current_scn from v$database;<br /><br />CURRENT_SCN<br />-----------<br />   30009727</pre>Speichern Sie die generierte SCN. Sie verwenden das SCN, wenn Sie die Daten exportieren und die AWS DMS-Replikationsaufgabe erstellen. | DBA | 
| Erstellen Sie die Parameterdatei. | Um eine Parameterdatei für den Export des Schemas zu erstellen, können Sie den folgenden Code verwenden.<pre>directory=DMS_DATA_PUMP_DIR<br />logfile=export_dms.log<br />dumpfile=export_dms_data.dmp<br />schemas=<schema name><br />flashback_scn=<SCN from previous command></pre>Sie können auch Ihren eigenen definieren, `DATA_PUMP_DIR` indem Sie die folgenden Befehle verwenden, die Ihren Anforderungen entsprechen.<pre>SQL> CREATE OR REPLACE DIRECTORY DMS_DATA_PUMP_DIR AS '<Directory for dump>';<br />Directory created.<br /><br />SQL> GRANT READ, WRITE ON DIRECTORY DMS_DATA_PUMP_DIR TO SYSTEM;<br />Grant succeeded.</pre> | DBA | 
| Exportieren Sie das Schema. | Verwenden Sie das `expdp` Hilfsprogramm wie folgt, um den Export durchzuführen:<pre>C:\Users\Administrator>expdp system/********@<DB Name> PARFILE='<Path to PAR file create above>'<br /><br />Export: Release 19.0.0.0.0 - Production on *** *** ** **:**:** ****<br />Version 19.3.0.0.0<br /><br />Copyright (c) 1982, 2019, Oracle and/or its affiliates.  All rights reserved.<br /><br />Connected to: Oracle Database 19c Standard Edition 2 Release 19.0.0.0.0 - Production<br />Starting "SYSTEM"."SYS_EXPORT_SCHEMA_02":  system/********@<DB Name>PARFILE='E:\exp_dms_datapump.par'<br />Processing object type SCHEMA_EXPORT/TABLE/TABLE_DATA<br />Processing object type SCHEMA_EXPORT/TABLE/INDEX/STATISTICS/INDEX_STATISTICS<br />Processing object type SCHEMA_EXPORT/TABLE/STATISTICS/TABLE_STATISTICS<br />Processing object type SCHEMA_EXPORT/STATISTICS/MARKER<br />Processing object type SCHEMA_EXPORT/USER<br />Processing object type SCHEMA_EXPORT/ROLE_GRANT<br />Processing object type SCHEMA_EXPORT/DEFAULT_ROLE<br />Processing object type SCHEMA_EXPORT/TABLESPACE_QUOTA<br />Processing object type SCHEMA_EXPORT/PRE_SCHEMA/PROCACT_SCHEMA<br />Processing object type SCHEMA_EXPORT/TABLE/TABLE<br />Processing object type SCHEMA_EXPORT/TABLE/GRANT/OWNER_GRANT/OBJECT_GRANT<br />Processing object type SCHEMA_EXPORT/TABLE/INDEX/INDEX<br />Processing object type SCHEMA_EXPORT/TABLE/CONSTRAINT/CONSTRAINT<br />. . exported "<Schema Name>"."<Table Name>"                            228.9 MB  496397 rows</pre><pre>Master table "SYSTEM"."SYS_EXPORT_SCHEMA_02" successfully loaded/unloaded<br />******************************************************************************<br />Dump file set for SYSTEM.SYS_EXPORT_SCHEMA_02 is:<br />  E:\DMSDUMP\EXPORT_DMS_DATA.DMP<br />Job "SYSTEM"."SYS_EXPORT_SCHEMA_02" successfully completed at *** *** ** **:**:** **** elapsed 0 00:01:57</pre> | DBA | 

### Verwenden Sie Oracle Data Pump, um das EnterpriseOne Schema zu importieren
<a name="use-oracle-data-pump-to-import-the-enterpriseone-schema"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Übertragen Sie die Dump-Datei auf die Zielinstanz. | Um Ihre Dateien mithilfe des `DBMS_FILE_TRANSFER` Dienstprogramms zu übertragen, müssen Sie einen Datenbank-Link von der Quelldatenbank zur Amazon RDS for Oracle Oracle-Instance erstellen. Nachdem die Verbindung hergestellt wurde, können Sie das Hilfsprogramm verwenden, um die Data Pump-Dateien direkt auf die Amazon RDS-Instance zu übertragen.Alternativ können Sie die Data Pump-Dateien an [Amazon Simple Storage Service (Amazon S3)](https://aws.amazon.com/s3/) übertragen und sie dann in die Amazon RDS for Oracle Oracle-Instance importieren. Weitere Informationen zu dieser Option finden Sie im Abschnitt [Zusätzliche Informationen](#migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-additional).Um einen Datenbank-Link zu erstellen`ORARDSDB`, der eine Verbindung zum Amazon RDS-Master-Benutzer auf der Ziel-DB-Instance herstellt, führen Sie die folgenden Befehle in der Quelldatenbank aus:<pre>sqlplus / as sysdba<br /><br />SQL*Plus: Release 19.0.0.0.0 on *** *** ** **:**:** ****<br />Version 19.3.0.0.0<br /><br />Copyright (c) 1982, 2019, Oracle.  All rights reserved.<br /><br />Connected to:<br />Oracle Database 19c Standard Edition 2 Release 19.0.0.0.0<br />Version 19.3.0.0.0<br /><br />SQL> create database link orardsdb connect to admin identified by "******" using '(DESCRIPTION = (ADDRESS = (PROTOCOL = TCP)(HOST = orcl.******.us-east-1.rds.amazonaws.com)(PORT = 1521))(CONNECT_DATA = (SERVER = DEDICATED) (SERVICE_NAME = orcl)))';<br /><br />Database link created.<br /><br />SQL></pre> | DBA | 
| Testen Sie den Datenbank-Link. | Testen Sie den Datenbank-Link, um sicherzustellen, dass Sie eine Verbindung zur Amazon RDS for Oracle Oracle-Zieldatenbank herstellen können, indem Sie`sqlplus`.<pre>SQL> select name from v$database@orardsdb;<br /><br />NAME<br />---------<br />ORCL<br /></pre> | DBA | 
| Übertragen Sie die Dump-Datei in die Zieldatenbank. | Um die Dump-Datei in die Amazon RDS for Oracle Oracle-Datenbank zu kopieren, können Sie entweder das `DATA_PUMP_DIR` Standardverzeichnis verwenden oder Sie können Ihr eigenes Verzeichnis erstellen, indem Sie den folgenden Code verwenden, der auf der Amazon RDS-Zielinstanz ausgeführt werden muss:<pre>exec rdsadmin.rdsadmin_util.create_directory(p_directory_name => 'DMS_TARGET_PUMP_DIR');<br /><br />PL/SQL procedure successfully completed.</pre>Das folgende Skript kopiert eine `EXPORT_DMS_DATA.DMP` aus der Quell-Instance benannte Dump-Datei mithilfe des angegebenen Datenbank-Links in eine Amazon RDS for Oracle Oracle-Zieldatenbank. `orardsdb` Sie müssen das Skript auf der Quelldatenbank-Instance ausführen.<pre>BEGIN<br />DBMS_FILE_TRANSFER.PUT_FILE(<br />source_directory_object => 'DMS_DATA_PUMP_DIR',<br />source_file_name => 'EXPORT_DMS_DATA.DMP',<br />destination_directory_object => 'DMS_TARGET_PUMP_DIR',<br />destination_file_name => 'EXPORT_DMS_DATA.DMP',<br />destination_database => 'orardsdb');<br />END;<br /><br />PL/SQL procedure successfully completed.</pre> | DBA | 
| Listet die Dump-Datei in der Zieldatenbank auf. | Nachdem das PL/SQL Verfahren abgeschlossen ist, können Sie die Datendump-Datei in der Amazon RDS for Oracle Oracle-Datenbank auflisten, indem Sie den folgenden Code verwenden:<pre>select * from table (rdsadmin.rds_file_util.listdir(p_directory => 'DMS_TARGET_PUMP_DIR'));</pre> | DBA | 
| Erstellen Sie JDE-spezifische Benutzer in der Zielinstanz. | Erstellen Sie ein JD Edwards-Profil und eine Rolle, indem Sie die folgenden Befehle in der Zielinstanz verwenden:<pre>SQL> CREATE PROFILE "JDEPROFILE" LIMIT IDLE_TIME 15;<br />Profile created.<br /><br />SQL> CREATE ROLE "JDE_ROLE";<br />Role created.<br /><br />SQL> CREATE ROLE "JDEADMIN";<br />CREATE ROLE "JDEUSER";<br />Role created.<br />Role created.</pre>Erteilen Sie der Rolle die erforderlichen Berechtigungen:<pre>SQL> GRANT CREATE ANY SEQUENCE TO JDE_ROLE;<br /> GRANT DROP ANY SEQUENCE TO JDE_ROLE;<br /> GRANT CREATE ANY TRIGGER TO JDE_ROLE;<br /> GRANT DROP ANY TRIGGER TO JDE_ROLE;<br /></pre> | DBA, JDE CNC | 
| Erstellen Sie Tablespaces in der Zielinstanz. | Erstellen Sie die erforderlichen Tablespaces in der Zielinstanz, indem Sie die folgenden Befehle für die Schemas verwenden, die an dieser Migration beteiligt sind:<pre>SQL> CREATE TABLESPACE <Tablespace Name for Tables>;<br />Tablespace created.<br /><br />SQL> CREATE TABLESPACE <Tablespace Name for Indexes>;<br />Tablespace created.</pre> | DBA, JDE CNC | 
| Initiieren Sie den Import in der Zieldatenbank. | Bevor Sie den Importvorgang starten, richten Sie die Rollen, Schemas und Tablespaces in der Amazon RDS for Oracle Oracle-Zieldatenbank mithilfe der Datendumpdatei ein.Um den Import durchzuführen, greifen Sie mit dem primären Amazon RDS-Benutzerkonto auf die Zieldatenbank zu und verwenden Sie den Namen der Verbindungszeichenfolge in der `tnsnames.ora` Datei, die die Amazon RDS for Oracle Database enthält`tns-entry`. Bei Bedarf können Sie eine Remap-Option hinzufügen, um die Datendumpdatei in einen anderen Tablespace oder unter einem anderen Schemanamen zu importieren.Verwenden Sie den folgenden Code, um den Import zu starten:<pre>impdp admin@orardsdb directory=DMS_TARGET_PUMP_DIR logfile=import.log dumpfile=EXPORT_DMS_DATA.DMP</pre>Um einen erfolgreichen Import sicherzustellen, überprüfen Sie die Import-Protokolldatei auf Fehler und überprüfen Sie Details wie Objektanzahl, Zeilenanzahl und ungültige Objekte. Wenn ungültige Objekte vorhanden sind, kompilieren Sie sie erneut. Vergleichen Sie außerdem die Quell- und Zieldatenbankobjekte, um sicherzustellen, dass sie übereinstimmen. | DBA | 

### Stellen Sie eine AWS-DMS-Replikationsinstanz mit den Quell- und Zielendpunkten bereit
<a name="provision-an-aws-dms-replication-instance-with-the-source-and-target-endpoints"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie die Vorlage für herunter. | Laden Sie die AWS-Vorlage CloudFormation [DMS\$1Instance.yaml](https://aws-database-blog.s3.amazonaws.com/artifacts/Migrating_oracle_using_DMS/DMS_Instance.yaml) herunter, um die AWS DMS-Replikationsinstanz und ihre Quell- und Zielendpunkte bereitzustellen. | Cloud-Administrator, DBA | 
| Starten Sie die Stack-Erstellung. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms.html) | Cloud-Administrator, DBA | 
| Geben Sie die Parameter an. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms.html) | Cloud-Administrator, DBA | 
| Erstellen Sie den Stack. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms.html)Die Bereitstellung sollte in etwa 5—10 Minuten abgeschlossen sein. Es ist abgeschlossen, wenn auf der Seite AWS CloudFormation Stacks **CREATE\$1COMPLETE** angezeigt wird. | Cloud-Administrator, DBA | 
| Richten Sie die Endpunkte ein. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms.html) | Cloud-Administrator, DBA | 
| Testen Sie die Konnektivität. | Nachdem der Quell- und der Zielendpunkt den Status **Aktiv** angezeigt haben, testen Sie die Konnektivität. Wählen Sie für jeden Endpunkt (Quell- und Zielpunkt) die Option **Test ausführen** aus, um sicherzustellen, dass der Status als erfolgreich angezeigt wird. | Cloud-Administrator, DBA | 

### Erstellen Sie eine AWS DMS-Replikationsaufgabe für die Live-Replikation
<a name="create-an-aws-dms-replication-task-for-live-replication"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Replikationsaufgabe. | Erstellen Sie die AWS DMS-Replikationsaufgabe mithilfe der folgenden Schritte:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms.html)Nachdem Sie die Aufgabe erstellt haben, migriert AWS DMS laufende Änderungen zur Amazon RDS for Oracle Oracle-Datenbank-Instance aus der SCN, die Sie im CDC-Startmodus bereitgestellt haben. Sie können die Migration auch überprüfen, indem Sie die Protokolle überprüfen. CloudWatch  | Cloud-Administrator, DBA | 
| Wiederholen Sie die Replizierungsaufgabe. | Wiederholen Sie die vorherigen Schritte, um Replikationsaufgaben für andere JD Edwards-Schemas zu erstellen, die Teil der Migration sind. | Cloud-Administrator, DBA, JDE-CNC-Administrator | 

### Überprüfen Sie das Datenbankschema auf der Amazon RDS for Oracle Oracle-Zieldatenbank
<a name="validate-the-database-schema-on-the-target-amazon-rds-for-oracle-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bestätigen Sie die Datenübertragung. | Nachdem die AWS DMS-Aufgabe gestartet wurde, können Sie auf der Seite **Aufgaben** auf der Registerkarte **Tabellenstatistiken** nachsehen, welche Änderungen an den Daten vorgenommen wurden.Sie können den Status der laufenden Replikation in der Konsole auf der Seite mit den **Aufgaben zur Datenbankmigration** überwachen.Weitere Informationen finden Sie unter [AWS DMS-Datenvalidierung](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Validating.html). | Cloud-Administrator, DBA | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Beenden Sie die Replikation. | Brechen Sie den Replikationsvorgang ab und beenden Sie die Quellanwendungsdienste. | Cloud-Administrator, DBA | 
| Starten Sie die JD Edwards-Anwendung. | Starten Sie die Präsentations- und Logik-Tier-Zielanwendung von JD Edwards auf AWS und leiten Sie sie an die Amazon RDS for Oracle Oracle-Datenbank weiter.Wenn Sie auf die Anwendung zugreifen, sollten Sie feststellen, dass jetzt alle Verbindungen mit der Amazon RDS for Oracle Oracle-Datenbank hergestellt sind. | DBA, JDE-CNC-Administrator | 
| Schalten Sie die Quelldatenbank aus. | Nachdem Sie bestätigt haben, dass keine Verbindungen mehr bestehen, können Sie die Quelldatenbank ausschalten. | DBA | 

## Fehlerbehebung
<a name="migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Sie erhalten eine Warnmeldung, um die [zusätzliche Protokollierung](https://docs.oracle.com/database/121/SUTIL/GUID-D2DDD67C-E1CC-45A6-A2A7-198E4C142FA3.htm#SUTIL1583) in der Quelldatenbank für die laufende Replikation zu aktivieren | Geben Sie die folgenden Befehle ein, um die zusätzliche Protokollierung zu aktivieren:<pre>SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (ALL) COLUMNS;<br />SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (PRIMARY KEY) COLUMNS;<br />SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (UNIQUE) COLUMNS;<br />SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (FOREIGN KEY) COLUMNS;<br />SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (PRIMARY KEY) COLUMNS;<br />SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (UNIQUE) COLUMNS;</pre> | 
| In AWS DMS ist die zusätzliche Protokollierung deaktiviert. | Die zusätzliche Protokollierung ist in AWS DMS standardmäßig deaktiviert. So aktivieren Sie es für einen Oracle-Quellendpunkt:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms.html) | 
| Die zusätzliche Protokollierung ist auf CDB-Ebene nicht aktiviert. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms.html) | 
| Sie erhalten die folgende Fehlermeldung: „Der Testendpunkt ist fehlgeschlagen: Anwendungsstatus: 1020912, Anwendungsnachricht: LogMiner wird in der Oracle PDB-Umgebung nicht unterstützt. Die Endpunktinitialisierung ist fehlgeschlagen.“ | Wenn Sie auf diese Fehlermeldung stoßen, können Sie stattdessen Binary Reader verwenden. LogMinerFügen Sie unter **Endpunkteinstellungen** diese Zeile zu den zusätzlichen Verbindungsattributen für Ihre Quelldatenbank hinzu:<pre>useLogMinerReader=N;useBfile=Y;</pre> | 

## Zugehörige Ressourcen
<a name="migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-resources"></a>
+ [Erste Schritte mit AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html)
+ [Bewährte Methoden für den AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_BestPractices.html)
+ [Migration von Oracle-Datenbanken in die AWS-Cloud](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/welcome.html)
+ [Referenz zum Ressourcentyp des AWS Database Migration Service für AWS CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/AWS_DMS.html)
+ [Verwalten Sie Ihre AWS-DMS-Endpunkt-Anmeldeinformationen mit AWS Secrets Manager](https://aws.amazon.com/blogs/database/manage-your-aws-dms-endpoint-credentials-with-aws-secrets-manager/)
+ [Fehlerbehebung bei Migrationsaufgaben im AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Troubleshooting.html#CHAP_Troubleshooting.Oracle.RecordsMissing)
+ [Bewährte Methoden für AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_BestPractices.html)

## Zusätzliche Informationen
<a name="migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms-additional"></a>

**Dateien mit Amazon S3 übertragen**

Um die Dateien auf Amazon S3 zu übertragen, können Sie die AWS-CLI oder die Amazon S3 S3-Konsole verwenden. Nachdem Sie die Dateien zu Amazon S3 übertragen haben, können Sie die Amazon RDS for Oracle Oracle-Instance verwenden, um die Data Pump-Dateien aus Amazon S3 zu importieren.

Wenn Sie die Dump-Datei mithilfe der Amazon S3 S3-Integration als alternative Methode übertragen möchten, führen Sie die folgenden Schritte aus:

1. Erstellen Sie einen S3-Bucket.

1. Exportieren Sie die Daten mit Oracle Data Pump aus der Quelldatenbank.

1. Laden Sie die Data Pump-Dateien in den S3-Bucket hoch.

1. Laden Sie die Data Pump-Dateien aus dem S3-Bucket in die Amazon RDS for Oracle Oracle-Zieldatenbank herunter.

1. Führen Sie den Import mithilfe der Data Pump-Dateien durch.

**Anmerkung**  
Um große Datendateien zwischen S3- und RDS-Instances zu übertragen, empfehlen wir Ihnen, die [Amazon S3 Transfer Acceleration Acceleration-Funktion](https://docs.aws.amazon.com/AmazonS3/latest/userguide/transfer-acceleration.html) zu verwenden.

# Migrieren Sie eine PeopleSoft Oracle-Datenbank mithilfe von AWS DMS zu AWS
<a name="migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms"></a>

*Sampath Kathirvel, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms-summary"></a>

[Oracle PeopleSoft](https://www.oracle.com/applications/peoplesoft/) ist eine ERP-Lösung (Enterprise Resource Planning) für unternehmensweite Prozesse. PeopleSoft hat eine dreistufige Architektur: Client, Anwendung und Datenbank. PeopleSoft kann auf [Amazon Relational Database Service (Amazon RDS)](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) ausgeführt werden.

Wenn Sie Ihre Oracle-Datenbank zu Amazon RDS migrieren, kann Amazon Web Services (AWS) Backup-Aufgaben und Hochverfügbarkeit übernehmen, sodass Sie sich auf die Wartung Ihrer PeopleSoft Anwendung und ihrer Funktionalität konzentrieren können. Eine umfassende Liste der wichtigsten Faktoren, die während des Migrationsprozesses zu berücksichtigen sind, finden Sie unter [Strategien zur Oracle-Datenbankmigration](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/strategies.html) in AWS Prescriptive Guidance.

Dieses Muster bietet eine Lösung für die Migration Ihrer lokalen Oracle-Datenbanken zu Amazon RDS for Oracle mithilfe von Oracle Data Pump mit [AWS Database Migration Service (AWS DMS)](https://aws.amazon.com/dms) und seiner Change Data Capture (CDC) -Funktion.

Bei der Migration kritischer ERP-Anwendungen wie Oracle PeopleSoft ist die Minimierung der Ausfallzeiten von entscheidender Bedeutung. AWS DMS minimiert Ausfallzeiten, indem es sowohl Volllast- als auch kontinuierliche Replikation von der Quelldatenbank zur Zieldatenbank unterstützt. AWS DMS bietet außerdem eine Überwachung und Protokollierung der Migration in Echtzeit, sodass Sie Probleme, die zu Ausfallzeiten führen könnten, identifizieren und lösen können.

Wenn Sie Änderungen mit AWS DMS replizieren, müssen Sie eine Uhrzeit oder eine Systemänderungsnummer (SCN) als Ausgangspunkt angeben, damit AWS DMS Änderungen aus den Datenbankprotokollen lesen kann. Es ist wichtig, diese Protokolle für einen bestimmten Zeitraum auf dem Server zugänglich zu halten, um sicherzustellen, dass AWS DMS Zugriff auf diese Änderungen hat.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms-prereqs"></a>

**Voraussetzungen**
+ Bereitgestellte Amazon RDS for Oracle Oracle-Datenbank in Ihrer AWS-Cloud-Umgebung als Zieldatenbank.
+ Eine PeopleSoft Oracle-Datenbank, die lokal oder auf Amazon Elastic Compute Cloud (Amazon EC2) in der AWS-Cloud ausgeführt wird.
**Anmerkung**  
Dieses Muster ist für die Migration von lokalen Systemen zu AWS konzipiert, wurde jedoch mithilfe von Oracle Database auf einer EC2 Amazon-Instance getestet. Für die Migration von einer lokalen Infrastruktur müssen Sie die entsprechende Netzwerkkonnektivität konfigurieren.
+ Schemadetails. Bei der Migration einer PeopleSoft Oracle-Anwendung zu Amazon RDS for Oracle muss angegeben werden, welches Oracle-Datenbankschema (z. B.`SYSADM`) migriert werden soll. Bevor Sie mit dem Migrationsprozess beginnen, sollten Sie die folgenden Informationen über das Schema sammeln:
  + Größe
  + Die Anzahl der Objekte pro Objekttyp
  + Die Anzahl der ungültigen Objekte.

  Diese Informationen helfen beim Migrationsprozess.

**Einschränkungen**
+ Dieses Szenario wurde nur mit der PeopleSoft DEMO-Datenbank getestet. Es wurde nicht mit einem großen Datensatz getestet.

## Architektur
<a name="migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms-architecture"></a>

Das folgende Diagramm zeigt eine Instance, auf der eine Oracle-Datenbank als Quelldatenbank und eine Amazon RDS for Oracle Oracle-Datenbank als Zieldatenbank ausgeführt wird. Die Daten werden mit Oracle Data Pump aus der Oracle-Quelldatenbank in die Amazon RDS for Oracle Oracle-Zieldatenbank exportiert und importiert und für CDC-Änderungen mit AWS DMS repliziert.

![\[Fünfstufiger Prozess von der lokalen DB-Instance zu Amazon RDS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/c8ec3789-f80e-4f3a-a3f4-72a4541316b0/images/4e3e3477-2fe0-4a5d-b95e-05a8aafe8b68.png)


1. Im ersten Schritt werden Daten mithilfe von Oracle Data Pump aus der Quelldatenbank extrahiert und anschließend an das Datenbankziel Amazon RDS for Oracle gesendet.

1. Daten werden von der Quelldatenbank an einen Quellendpunkt in AWS DMS gesendet.

1. Vom Quellendpunkt werden die Daten an die AWS DMS-Replikationsinstanz gesendet, wo die Replikationsaufgabe ausgeführt wird.

1. Nach Abschluss der Replikationsaufgabe werden die Daten an den Zielendpunkt in AWS DMS gesendet.

1. Vom Zielendpunkt werden die Daten an die Amazon RDS for Oracle Oracle-Datenbank-Instance gesendet.

## Tools
<a name="migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms-tools"></a>

**AWS-Services**
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.
+ [Amazon Relational Database Service (Amazon RDS) für Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Oracle-Datenbank in der AWS-Cloud.

**Andere Dienste**
+ Mit [Oracle Data Pump](https://docs.oracle.com/cd/B19306_01/server.102/b14215/dp_overview.htm) können Sie Daten und Metadaten mit hoher Geschwindigkeit von einer Datenbank in eine andere verschieben.

## Best Practices
<a name="migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms-best-practices"></a>

**Migrating LOBs**

Wenn Ihre Quelldatenbank große binäre Objekte (LOBs) enthält, die in die Zieldatenbank migriert werden müssen, bietet AWS DMS die folgenden Optionen:
+ **Vollständiger LOB-Modus** — AWS DMS migriert alle Daten LOBs von der Quell- zur Zieldatenbank, unabhängig von ihrer Größe. Die Migration ist zwar langsamer, hat aber den Vorteil, dass die Daten nicht gekürzt werden. Um die Leistung zu verbessern, können Sie für die neue Replikationsinstanz eine separate Aufgabe erstellen, um die Tabellen zu migrieren, die mehr LOBs als ein paar Megabyte haben.
+ **Eingeschränkter LOB-Modus** — Sie geben die maximale Größe der LOB-Spaltendaten an, sodass AWS DMS Ressourcen vorab zuweisen und diese in großen Mengen anwenden kann. LOBs Wenn die Größe der LOB-Spalten die in der Aufgabe angegebene Größe überschreitet, kürzt AWS DMS die Daten und sendet Warnungen an die AWS DMS-Protokolldatei. Sie können die Leistung verbessern, indem Sie den eingeschränkten LOB-Modus verwenden, wenn Ihre LOB-Datengröße innerhalb der begrenzten LOB-Größe liegt.
+ **Inline-LOB-Modus** — Sie können migrieren, LOBs ohne die Daten zu kürzen oder die Leistung Ihrer Aufgabe zu beeinträchtigen, indem Sie sowohl kleine als auch große Daten replizieren. LOBs Geben Sie zunächst einen Wert für den InlineLobMaxSize Parameter an, der nur verfügbar ist, wenn der Full-LOB-Modus auf true gesetzt ist. Die AWS-DMS-Aufgabe überträgt die kleine LOBs Inline, was effizienter ist. Anschließend migriert AWS DMS die große Datei, LOBs indem es eine Suche aus der Quelltabelle durchführt. Der Inline-LOB-Modus funktioniert jedoch nur während der Volllastphase.

**Generieren von Sequenzwerten**

Beachten Sie, dass während der Erfassung von Änderungsdaten mit AWS DMS inkrementelle Sequenznummern nicht aus der Quelldatenbank repliziert werden. Um Diskrepanzen bei den Sequenzwerten zu vermeiden, müssen Sie für alle Sequenzen den neuesten Sequenzwert aus der Quelle generieren und ihn auf die Amazon RDS for Oracle Oracle-Zieldatenbank anwenden.

**Verwaltung von Anmeldedaten**

Um Ihre AWS-Ressourcen zu schützen, empfehlen wir, die [Best Practices](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) für AWS Identity and Access Management (IAM) zu befolgen.

## Epen
<a name="migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms-epics"></a>

### Stellen Sie eine AWS-DMS-Replikationsinstanz mit den Quell- und Zielendpunkten bereit
<a name="provision-an-aws-dms-replication-instance-with-the-source-and-target-endpoints"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie die Vorlage für herunter. | Laden Sie die CloudFormation AWS-Vorlage [DMS\$1Instance.yaml](https://aws-database-blog.s3.amazonaws.com/artifacts/Migrating_oracle_using_DMS/DMS_Instance.yaml) herunter, um die AWS DMS-Replikationsinstanz und ihre Quell- und Zielendpunkte bereitzustellen. | Cloud-Administrator, DBA | 
| Starten Sie die Stack-Erstellung. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms.html) | Cloud-Administrator, DBA | 
| Geben Sie die Parameter an. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms.html) | Cloud-Administrator, DBA | 
| Erstellen Sie den Stack. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms.html)Die Bereitstellung sollte in etwa 5—10 Minuten abgeschlossen sein. Es ist abgeschlossen, wenn auf der Seite AWS CloudFormation Stacks **CREATE\$1COMPLETE** angezeigt wird. | Cloud-Administrator, DBA | 
| Richten Sie die Endpunkte ein. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms.html) | Cloud-Administrator, DBA | 
| Testen Sie die Konnektivität. | Nachdem der Quell- und der Zielendpunkt den Status Aktiv angezeigt haben, testen Sie die Konnektivität. Wählen Sie für jeden Endpunkt (Quell- und Zielpunkt) die Option **Test ausführen** aus, um sicherzustellen, dass der Status als erfolgreich angezeigt wird. | Cloud-Administrator, DBA | 

### Exportieren Sie das PeopleSoft Schema mithilfe von Oracle Data Pump aus der lokalen Oracle-Datenbank
<a name="export-the-peoplesoft-schema-from-the-on-premises-oracle-database-by-using-oracle-data-pump"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Generieren Sie das SCN. | Wenn die Quelldatenbank aktiv ist und von der Anwendung verwendet wird, initiieren Sie den Datenexport mit Oracle Data Pump. Sie müssen zunächst eine System Change Number (SCN) aus der Quelldatenbank generieren, um sowohl die Datenkonsistenz beim Export mit Oracle Data Pump als auch als Ausgangspunkt für die Erfassung von Änderungsdaten in AWS DMS zu gewährleisten.Um die aktuelle SCN aus Ihrer Quelldatenbank zu generieren, geben Sie die folgende SQL-Anweisung ein.<pre>SQL> select name from v$database;<br />SQL> select name from v$database;<br />NAME<br />---------<br />PSFTDMO<br />SQL> SELECT current_scn FROM v$database;<br />CURRENT_SCN<br />-----------<br />23792008</pre>Speichern Sie die generierte SCN, um sie beim Exportieren der Daten und zur Erstellung der AWS DMS-Replikationsaufgabe zu verwenden. | DBA | 
| Erstellen Sie die Parameterdatei. | Um eine Parameterdatei für den Export des Schemas zu erstellen, können Sie den folgenden Code verwenden.<pre>$ cat exp_datapmp.par<br />userid=system/*******<br />directory=DATA_PUMP_DIR<br />logfile=export_dms_sample_user.log<br />dumpfile=export_dms_sample_data_%U.dmp<br />schemas=SYSADM<br />flashback_scn=23792008</pre>Sie können auch Ihren eigenen definieren, `DATA_PUMP_DIR` indem Sie die folgenden Befehle verwenden, die Ihren Anforderungen entsprechen.<pre>SQL> CREATE OR REPLACE DIRECTORY DATA_PUMP_DIR AS '/opt/oracle/product/19c/dbhome_1/dmsdump/';<br />Directory created.<br />SQL> GRANT READ, WRITE ON DIRECTORY DATA_PUMP_DIR TO system;<br />Grant succeeded.<br />SQL><br />SQL> SELECT owner, directory_name, directory_path FROM dba_directories WHERE directory_name='DATA_PUMP_DIR';<br />OWNER DIRECTORY_NAME DIRECTORY_PATH<br />------------------------------------------------------------------------------------------------------------------<br />SYS DATA_PUMP_DIR /opt/oracle/product/19c/dbhome_1/dmsdump/</pre> | DBA | 
| Exportieren Sie das Schema. | Verwenden Sie das `expdp` Hilfsprogramm, um den Export durchzuführen.<pre>$ expdp parfile=exp_datapmp.par<br />.......................<br />Transferring the dump file with DBMS_FILE_TRANSFER to Target:<br />. . exported "SYSADM"."PS_XML_TEMPLT_LNG" 6.320 KB 0 rows<br />. . exported "SYSADM"."PS_XML_TEMPLT_LNK" 6.328 KB 0 rows<br />. . exported "SYSADM"."PS_XML_XLATDEF_LNG" 6.320 KB 0 rows<br />. . exported "SYSADM"."PS_XML_XLATITM_LNG" 7.171 KB 0 rows<br />. . exported "SYSADM"."PS_XPQRYRUNCNTL" 7.601 KB 0 rows<br />. . exported "SYSADM"."PS_XPQRYRUNPARM" 7.210 KB 0 rows<br />. . exported "SYSADM"."PS_YE_AMOUNTS" 9.351 KB 0 rows<br />. . exported "SYSADM"."PS_YE_DATA" 16.58 KB 0 rows<br />. . exported "SYSADM"."PS_YE_EE" 6.75 KB 0 rows<br />. . exported "SYSADM"."PS_YE_W2CP_AMOUNTS" 9.414 KB 0 rows<br />. . exported "SYSADM"."PS_YE_W2CP_DATA" 20.94 KB 0 rows<br />. . exported "SYSADM"."PS_YE_W2C_AMOUNTS" 10.27 KB 0 rows<br />. . exported "SYSADM"."PS_YE_W2C_DATA" 20.95 KB 0 rows<br />. . exported "SYSADM"."PS_ZBD_JOBCODE_TBL" 14.60 KB 0 rows<br />. . exported "SYSADM"."PTGRANTTBL" 5.468 KB 0 rows<br />Master table "SYSTEM"."SYS_EXPORT_SCHEMA_01" successfully loaded/unloaded<br />**<br />Dump file set for SYSTEM.SYS_EXPORT_SCHEMA_01 is:<br />/opt/oracle/product/19c/dbhome_1/dmsdump/export_dms_sample_data_01.dmp<br />Job "SYSTEM"."SYS_EXPORT_SCHEMA_01" successfully completed at Mon Dec 19 20:13:57 2022 elapsed 0 00:38:22</pre> | DBA | 

### Importieren Sie das PeopleSoft Schema mithilfe von Oracle Data Pump in die Amazon RDS for Oracle-Datenbank
<a name="import-the-peoplesoft-schema-into-the-amazon-rds-for-oracle-database-by-using-oracle-data-pump"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Übertragen Sie die Dump-Datei auf die Zielinstanz. | Um Ihre Dateien mit zu übertragen`DBMS_FILE_TRANSFER`, müssen Sie einen Datenbank-Link von der Quelldatenbank zur Amazon RDS for Oracle Oracle-Instance erstellen. Nachdem die Verbindung hergestellt wurde, können Sie das Hilfsprogramm verwenden, um die Data Pump-Dateien direkt auf die RDS-Instance zu übertragen.Alternativ können Sie die Data Pump-Dateien an [Amazon Simple Storage Service (Amazon S3)](https://aws.amazon.com/s3/) übertragen und sie dann in die Amazon RDS for Oracle Oracle-Instance importieren. Weitere Informationen zu dieser Option finden Sie im Abschnitt Zusätzliche Informationen.Um einen Datenbank-Link zu erstellen`ORARDSDB`, der eine Verbindung zum Amazon RDS-Master-Benutzer auf der Ziel-DB-Instance herstellt, führen Sie die folgenden Befehle in der Quelldatenbank aus.<pre>$sqlplus / as sysdba<br />$ SQL> create database link orardsdb connect to admin identified by "*****" using '(DESCRIPTION = (ADDRESS = (PROTOCOL = TCP)(HOST = testpsft.*******.us-west-2.rds.amazonaws.com)(PORT = 1521))(CONNECT_DATA = (SERVER = DEDICATED) (SERVICE_NAME = orcl)))';<br />Database link created.</pre> | DBA | 
| Testen Sie den Datenbank-Link. | Testen Sie den Datenbank-Link, um sicherzustellen, dass Sie mit sqlplus eine Verbindung zur Amazon RDS for Oracle Oracle-Zieldatenbank herstellen können.<pre>SQL><br />SQL> select name from v$database@orardsdb;<br />NAME<br />---------<br />ORCL<br />SQL></pre> | DBA | 
| Übertragen Sie die Dump-Datei in die Zieldatenbank. | Um die Dump-Datei in die Amazon RDS for Oracle Oracle-Datenbank zu kopieren, können Sie entweder das `DATA_PUMP_DIR` Standardverzeichnis verwenden oder mit dem folgenden Code Ihr eigenes Verzeichnis erstellen.<pre>exec rdsadmin.rdsadmin_util.create_directory(p_directory_name => ‘TARGET_PUMP_DIR’);</pre>Das folgende Skript kopiert eine `export_dms_sample_data_01.dmp` aus der Quell-Instance benannte Dump-Datei mithilfe des angegebenen Datenbank-Links in eine Amazon RDS for Oracle Oracle-Zieldatenbank. `orardsdb`<pre>$ sqlplus / as sysdba<br />SQL><br />BEGIN<br />DBMS_FILE_TRANSFER.PUT_FILE(<br />source_directory_object => 'DATA_PUMP_DIR',<br />source_file_name => 'export_dms_sample_data_01.dmp',<br />destination_directory_object => 'TARGET_PUMP_DIR’',<br />destination_file_name => 'export_dms_sample_data_01.dmp',<br />destination_database => 'orardsdb'<br />);<br />END;<br />/<br />PL/SQL procedure successfully completed.</pre> | DBA | 
| Listet die Dump-Datei in der Zieldatenbank auf. | Nachdem das PL/SQL Verfahren abgeschlossen ist, können Sie die Datendump-Datei in der Amazon RDS for Oracle Oracle-Datenbank auflisten, indem Sie den folgenden Code verwenden.<pre>SQL> select * from table (rdsadmin.rds_file_util.listdir(p_directory => ‘TARGET_PUMP_DIR’));</pre> | DBA | 
| Initiieren Sie den Import in der Zieldatenbank. | Bevor Sie den Importvorgang starten, richten Sie die Rollen, Schemas und Tablespaces in der Amazon RDS for Oracle Oracle-Zieldatenbank mithilfe der Datendumpdatei ein.Um den Import durchzuführen, greifen Sie mit dem Amazon RDS-Master-Benutzerkonto auf die Zieldatenbank zu und verwenden Sie den Namen der Verbindungszeichenfolge in der `tnsnames.ora` Datei, die die Amazon RDS for Oracle Database enthält`tns-entry`. Bei Bedarf können Sie eine Remap-Option hinzufügen, um die Datendumpdatei in einen anderen Tablespace oder unter einem anderen Schemanamen zu importieren.Verwenden Sie den folgenden Code, um den Import zu starten.<pre>impdp admin@orardsdb directory=TARGET_PUMP_DIR logfile=import.log dumpfile=export_dms_sample_data_01.dmp</pre>Um einen erfolgreichen Import sicherzustellen, überprüfen Sie die Import-Protokolldatei auf Fehler und überprüfen Sie Details wie Objektanzahl, Zeilenanzahl und ungültige Objekte. Wenn ungültige Objekte vorhanden sind, kompilieren Sie sie erneut. Vergleichen Sie außerdem die Quell- und Zieldatenbankobjekte, um sicherzustellen, dass sie übereinstimmen. | DBA | 

### Erstellen Sie eine AWS DMS-Replikationsaufgabe mithilfe von CDC, um die Live-Replikation durchzuführen
<a name="create-an-aws-dms-replication-task-using-cdc-to-perform-live-replication"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Replikationsaufgabe. | Erstellen Sie die AWS DMS-Replikationsaufgabe mithilfe der folgenden Schritte:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms.html)Nachdem Sie die Aufgabe erstellt haben, migriert sie das CDC von der SCN, die Sie im CDC-Startmodus bereitgestellt haben, zur Amazon RDS for Oracle Oracle-Datenbank-Instance. Sie können dies auch überprüfen, indem Sie die Protokolle überprüfen. CloudWatch  | Cloud-Administrator, DBA | 

### Überprüfen Sie das Datenbankschema auf der Amazon RDS for Oracle Oracle-Zieldatenbank
<a name="validate-the-database-schema-on-the-target-amazon-rds-for-oracle-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bestätigen Sie die Datenübertragung. | Nachdem die AWS DMS-Aufgabe gestartet wurde, können Sie auf der Seite **Aufgaben** auf der Registerkarte **Tabellenstatistiken** nachsehen, welche Änderungen an den Daten vorgenommen wurden.Sie können den Status der laufenden Replikation in der Konsole auf der Seite mit den **Aufgaben zur Datenbankmigration** überwachen.Weitere Informationen finden Sie unter [AWS DMS-Datenvalidierung](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Validating.html). | Cloud-Administrator, DBA | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Beenden Sie die Replikation. | Brechen Sie den Replikationsvorgang ab und halten Sie die Dienste der Quellanwendung an. | Cloud-Administrator, DBA | 
| Starten Sie die PeopleSoft mittlere Stufe. | Starten Sie die PeopleSoft Middle-Tier-Zielanwendung in AWS und leiten Sie sie an die kürzlich migrierte Amazon RDS for Oracle Oracle-Datenbank weiter.Wenn Sie auf die Anwendung zugreifen, sollten Sie feststellen, dass jetzt alle App-Verbindungen mit der Amazon RDS for Oracle Oracle-Datenbank hergestellt sind. | DBA, Administrator PeopleSoft  | 
| Schalten Sie die Quelldatenbank aus. | Nachdem Sie bestätigt haben, dass keine Verbindungen mehr zur Quelldatenbank bestehen, kann sie ausgeschaltet werden. | DBA | 

## Zugehörige Ressourcen
<a name="migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms-resources"></a>
+ [Erste Schritte mit AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_GettingStarted.html)
+ [Bewährte Methoden für den AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_BestPractices.html)
+ [Migration von Oracle-Datenbanken in die AWS-Cloud](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/welcome.html)

## Zusätzliche Informationen
<a name="migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms-additional"></a>

**Dateien mit Amazon S3 übertragen**

Um die Dateien auf Amazon S3 zu übertragen, können Sie die AWS-CLI oder die Amazon S3 S3-Konsole verwenden. Nachdem Sie die Dateien zu Amazon S3 übertragen haben, können Sie die Amazon RDS for Oracle Oracle-Instance verwenden, um die Data Pump-Dateien aus Amazon S3 zu importieren.

Wenn Sie die Dump-Datei mithilfe der Amazon S3 S3-Integration als alternative Methode übertragen möchten, führen Sie die folgenden Schritte aus:

1. Erstellen Sie einen S3-Bucket.

1. Exportieren Sie die Daten mit Oracle Data Pump aus der Quelldatenbank.

1. Laden Sie die Data Pump-Dateien in den S3-Bucket hoch.

1. Laden Sie die Data Pump-Dateien aus dem S3-Bucket in die Amazon RDS for Oracle Oracle-Zieldatenbank herunter.

1. Führen Sie den Import mithilfe der Data Pump-Dateien durch.

**Anmerkung**  
Um große Datendateien zwischen S3- und RDS-Instances zu übertragen, wird empfohlen, die Amazon S3 Transfer Acceleration Acceleration-Funktion zu verwenden.

**Aktivieren Sie die zusätzliche Protokollierung**

Wenn Sie eine Warnmeldung erhalten, um die [zusätzliche Protokollierung](https://docs.oracle.com/database/121/SUTIL/GUID-D2DDD67C-E1CC-45A6-A2A7-198E4C142FA3.htm#SUTIL1583) in der Quelldatenbank für die laufende Replikation zu aktivieren, gehen Sie wie folgt vor.

```
SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (ALL) COLUMNS;
SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (PRIMARY KEY) COLUMNS;
SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (UNIQUE) COLUMNS;
SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (FOREIGN KEY) COLUMNS;
SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (PRIMARY KEY) COLUMNS
SQL> ALTER DATABASE ADD SUPPLEMENTAL LOG DATA (UNIQUE) COLUMNS;
```

# Migrieren Sie eine lokale MySQL-Datenbank zu Amazon RDS for MySQL
<a name="migrate-an-on-premises-mysql-database-to-amazon-rds-for-mysql"></a>

*Lorenzo Mota, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-mysql-database-to-amazon-rds-for-mysql-summary"></a>

Dieses Muster bietet Anleitungen für die Migration einer lokalen MySQL-Datenbank zu Amazon Relational Database Service (Amazon RDS) for MySQL. Das Muster beschreibt die Verwendung von AWS Database Migration Service (AWS DMS) oder nativen MySQL-Tools wie **mysqldump** für eine vollständige Datenbankmigration. Dieses Muster richtet sich in erster Linie an DBAs Lösungsarchitekten. Es kann in kleinen oder großen Projekten als Testverfahren (wir empfehlen mindestens einen Testzyklus) oder als abschließendes Migrationsverfahren verwendet werden. 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-mysql-database-to-amazon-rds-for-mysql-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS Konto
+ Eine MySQL-Quelldatenbank in einem lokalen Rechenzentrum

**Einschränkungen**
+ Größenbeschränkung der Datenbank: [64 TB](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Storage.html)

**Produktversionen**
+ MySQL-Versionen 5.5, 5.6, 5.7, 8.0. Die aktuelle Liste der unterstützten Versionen finden Sie in der AWS Dokumentation unter [MySQL on Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_MySQL.html). Wenn Sie verwenden AWS DMS, siehe auch [Verwenden einer MySQL-kompatiblen Datenbank als Ziel AWS DMS für](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.MySQL.html) MySQL-Versionen, die derzeit von unterstützt werden. AWS DMS

## Architektur
<a name="migrate-an-on-premises-mysql-database-to-amazon-rds-for-mysql-architecture"></a>

**Quelltechnologie-Stack**
+ Eine lokale MySQL-Datenbank

**Zieltechnologie-Stack**
+ Eine Amazon RDS-DB-Instance, auf der MySQL ausgeführt wird

**Zielarchitektur**

Das folgende Diagramm zeigt die Zielimplementierung von Amazon RDS for MySQL nach der Migration.

![\[Ziel ist die Implementierung von Amazon RDS for MySQL nach der Umstellung.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/808809dd-030f-42af-a5a7-c4ba40456193/images/2e10114e-e389-4d24-9b6a-fa56beee5369.png)


**AWS Architektur der Datenmigration**

**Verwenden von AWS DMS:**

Das folgende Diagramm zeigt die Datenmigrationsarchitektur, wenn Sie bis AWS DMS zur Übernahme vollständige und inkrementelle Änderungen senden. Die Netzwerkverbindung von lokal zu vor Ort AWS hängt von Ihren Anforderungen ab und fällt nicht in den Anwendungsbereich dieses Musters.

![\[Datenmigrationsarchitektur zu AWS, wenn Sie AWS DMS verwenden.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/808809dd-030f-42af-a5a7-c4ba40456193/images/ecc9b282-1897-4971-99ed-83223b17000d.png)


**Verwendung nativer MySQL-Tools:**

Das folgende Diagramm zeigt die Datenmigrationsarchitektur, wenn Sie native MySQL-Tools verwenden. Die Export-Dumpdateien werden in Amazon Simple Storage Service (Amazon S3) kopiert und AWS vor der Übernahme in die Amazon RDS for MySQL MySQL-Datenbank importiert. Die Netzwerkverbindung von lokal zu AWS hängt von Ihren Anforderungen ab und fällt nicht in den Anwendungsbereich dieses Musters.

 

![\[Datenmigration zur AWS-Architektur, wenn Sie native MySQL-Tools verwenden.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/808809dd-030f-42af-a5a7-c4ba40456193/images/3bbec989-c3eb-473e-ba4a-032d6a4271c5.png)


**Hinweise:**
+ Abhängig von den Anforderungen an Ausfallzeiten und der Größe der Datenbank minimiert die Verwendung AWS DMS oder ein CDC-Tool (Change Data Capture) die Umstellungszeit. AWS DMS kann dazu beitragen, die Umstellungszeit auf das neue Ziel auf ein Minimum zu reduzieren (in der Regel Minuten). Eine Offline-Strategie mit **mysqldump** kann ausreichen, wenn die Größe der Datenbank und die Netzwerklatenz ein kurzes Zeitfenster zulassen. (Wir empfehlen, zu testen, um eine ungefähre Zeit zu erhalten.)
+ In der Regel AWS DMS erfordert eine CDC-Strategie mehr Überwachung und Komplexität als Offline-Optionen. 

## Tools
<a name="migrate-an-on-premises-mysql-database-to-amazon-rds-for-mysql-tools"></a>
+ **AWS-Services**: [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) hilft Ihnen bei der Migration von Datenspeichern in die AWS Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups. Hinweise zu MySQL-Quell- und Zieldatenbanken, die von unterstützt werden AWS DMS, finden Sie unter [MySQL-kompatible Datenbanken migrieren](https://docs.aws.amazon.com/dms/latest/sbs/CHAP_MySQL.html) zu. AWS Wenn Ihre Quelldatenbank von nicht unterstützt wird AWS DMS, müssen Sie eine andere Methode für die Migration Ihrer Daten wählen.
+ **Systemeigene MySQL-Tools**: [mysqldump](https://dev.mysql.com/doc/refman/8.0/en/mysqldump.html)
+ **Tools von Drittanbietern**[: Percona XtraBackup](https://www.percona.com/software/mysql-database/percona-xtrabackup)

## Epen
<a name="migrate-an-on-premises-mysql-database-to-amazon-rds-for-mysql-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Datenbankversionen. | Validieren Sie die Quell- und Zieldatenbankversionen. | DBA | 
| Identifizieren Sie die Hardwareanforderungen. | Identifizieren Sie die Hardwareanforderungen für den Zielserver. | DBA, Systemadministrator | 
| Identifizieren Sie die Speicheranforderungen. | Identifizieren Sie die Speicheranforderungen (wie Speichertyp und Kapazität) für die Zieldatenbank. | DBA, Systemadministrator | 
| Wählen Sie den Instance-Typ aus. | Wählen Sie den Zielinstanztyp auf der Grundlage von Kapazität, Speicher- und Netzwerkfunktionen aus. | DBA, Systemadministrator | 
| Identifizieren Sie die Anforderungen für den Netzwerkzugriff. | Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken.  | DBA, Systemadministrator | 
| Identifizieren Sie nicht unterstützte Objekte. | Identifizieren Sie nicht unterstützte Objekte (falls vorhanden) und ermitteln Sie den Migrationsaufwand. | DBA | 
| Identifizieren Sie Abhängigkeiten. | Identifizieren Sie alle Abhängigkeiten von entfernten Datenbanken. | DBA | 
| Ermitteln Sie die Strategie für die Anwendungsmigration.  | Ermitteln Sie die Strategie für die Migration von Client-Anwendungen.  | DBA, Besitzer der App, Systemadministrator | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer Virtual Private Cloud (VPC). | Konfigurieren Sie Routentabellen, Internet-Gateways, NAT-Gateways und Subnetze. Weitere Informationen finden Sie unter [VPCs und Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_VPC.html) in der Amazon RDS-Dokumentation. | Systemadministrator | 
| Erstellen Sie Sicherheitsgruppen. | Konfigurieren Sie IPs je nach Ihren Anforderungen Ports und CIDR-Bereiche oder spezifische. Der Standardport für MySQL ist 3306. Weitere Informationen finden Sie unter [Steuern des Zugriffs mit Sicherheitsgruppen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Overview.RDSSecurityGroups.html) in der Amazon RDS-Dokumentation. | Systemadministrator | 
| Konfigurieren und starten Sie eine Amazon RDS for MySQL MySQL-DB-Instance. | Anweisungen finden Sie in der [Amazon RDS-Dokumentation unter Erstellen einer Amazon RDS-DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_CreateInstance.html). Suchen Sie nach unterstützten Versionen. | Systemadministrator | 

### Daten migrieren ‒ Option 1 (mit systemeigenen Tools)
<a name="migrate-data-option-1-using-native-tools"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwenden Sie native MySQL-Tools oder Tools von Drittanbietern, um Datenbankobjekte und Daten zu migrieren. | Anweisungen finden Sie in der Dokumentation für MySQL-Tools wie [mysqldump](https://dev.mysql.com/doc/refman/8.0/en/mysqldump.html) und [Percona XtraBackup](https://www.percona.com/software/mysql-database/percona-xtrabackup) (für physische Migration). Weitere Informationen zu Optionen finden Sie im Blogbeitrag [Migrationsoptionen für MySQL zu Amazon RDS for MySQL oder Amazon Aurora MySQL](https://aws.amazon.com/blogs/database/migration-options-for-mysql-to-amazon-rds-for-mysql-or-amazon-aurora-mysql/). | DBA | 

### Daten migrieren ‒ Option 2 (verwenden AWS DMS)
<a name="migrate-data-option-2-using-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie Daten mit AWS DMS. | Anweisungen finden Sie in der [AWS DMS Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html). | DBA | 

### Führen Sie vor der Umstellung vorläufige Aufgaben durch
<a name="perform-preliminary-tasks-before-cutover"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Korrigieren Sie Diskrepanzen bei der Anzahl der Objekte. | Sammelt Objektzahlen aus der Quelldatenbank und der neuen Zieldatenbank. Korrigieren Sie Diskrepanzen in der Zieldatenbank. | DBA | 
| Überprüfen Sie die Abhängigkeiten. | Prüfen Sie, ob Abhängigkeiten (Links) zu und von anderen Datenbanken gültig sind und wie erwartet funktionieren. | DBA | 
| Tests durchführen. | Wenn es sich um einen Testzyklus handelt, führen Sie Abfragetests durch, sammeln Sie Metriken und beheben Sie Probleme. | DBA | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Wechseln Sie zur Zieldatenbank. | Stellen Sie die Client-Anwendungen auf die neue Infrastruktur um. | DBA, App-Besitzer, Systemadministrator | 
| Bieten Sie Unterstützung beim Testen an. | Bieten Sie Unterstützung für funktionale Anwendungstests.  | DBA | 

### Schließt das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Ressourcen herunterfahren. | Fahren Sie die temporären AWS Ressourcen herunter, die Sie für die Migration erstellt haben.  | DBA, Systemadministrator | 
| Validieren Sie Projektdokumente.  | Überprüfen und validieren Sie die Projektdokumente.  | DBA, App-Besitzer, Systemadministrator | 
| Sammeln Sie Metriken. | Erfassen Sie Kennzahlen wie die Zeit für die Migration, den Prozentsatz des manuellen Aufwands im Vergleich zum automatisierten Aufwand, Kosteneinsparungen usw. | DBA, App-Besitzer, Systemadministrator | 
| Schließt das Projekt ab.  | Schließen Sie das Projekt ab und geben Sie Feedback.  | DBA, App-Besitzer, Systemadministrator | 
| Nehmen Sie die Quelldatenbank außer Betrieb. | Wenn alle Migrations- und Umstellungsaufgaben abgeschlossen sind, nehmen Sie die lokale Datenbank außer Betrieb. | DBA, Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-mysql-database-to-amazon-rds-for-mysql-resources"></a>

**Referenzen**
+ [Migrationsstrategie für relationale Datenbanken](https://docs.aws.amazon.com/prescriptive-guidance/latest/strategy-database-migration/welcome.html)
+ [AWS DMS website](https://aws.amazon.com/dms/)
+ [AWS DMS Dokumentation](https://docs.aws.amazon.com/dms/)
+ [Dokumentation zu Amazon RDS](https://docs.aws.amazon.com/rds/)
+ [Amazon-RDS-Preise](https://aws.amazon.com/rds/pricing/)
+ [Amazon VPC und Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_VPC.html)
+ [Amazon RDS Multi-AZ-Bereitstellungen](https://aws.amazon.com/rds/details/multi-az/)
+ [Migrieren Sie lokale MySQL-Datenbanken mit Percona XtraBackup, Amazon EFS und Amazon S3 zu Aurora MySQL](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3.html)
+ [Amazon-RDS-DB-Instance-Speicher](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Storage.html)

**Tutorials**
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)

# Migrieren Sie eine lokale Microsoft SQL Server-Datenbank zu Amazon RDS for SQL Server
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server"></a>

*Henrique Lobao, Jonathan Pereira Cruz und Vishal Singh, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-summary"></a>

Dieses Muster bietet Anleitungen für die Migration von einer lokalen Microsoft SQL Server-Datenbank zu Amazon Relational Database Service (Amazon RDS) für SQL Server. Es beschreibt zwei Optionen für die Migration: die Verwendung von AWS Data Migration Service (AWS DMS) oder die Verwendung systemeigener Microsoft SQL Server-Tools wie Copy Database Wizard.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Microsoft SQL Server-Quelldatenbank in einem lokalen Rechenzentrum

**Einschränkungen**
+ Größenbeschränkung für Datenbanken: 16 TB

**Produktversionen**
+ Die aktuelle Liste der unterstützten Versionen und Funktionen finden Sie in der AWS-Dokumentation unter [Microsoft SQL Server on Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_SQLServer.html#SQLServer.Concepts.General.FeatureSupport). Wenn Sie AWS DMS verwenden, finden Sie weitere Informationen unter [Verwenden einer Microsoft SQL Server-Datenbank als Ziel für AWS DMS für](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.SQLServer.html) SQL Server-Versionen, die von AWS DMS unterstützt werden. 

## Architektur
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-architecture"></a>

**Quelltechnologie-Stack**
+ Eine lokale Microsoft SQL Server-Datenbank

**Zieltechnologie-Stack**
+ Eine Amazon RDS for SQL Server Server-DB-Instance 

**Quell- und Zielarchitektur**

*Verwenden von AWS DMS:*

![\[Architektur für die Migration von lokalem SQL Server zu Amazon RDS mithilfe von AWS DMS\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/27942833-c294-405c-90e6-32cc197e36ee/images/69b9877c-2d56-4d64-8475-a3dae789c5de.png)


*Verwendung nativer SQL Server-Tools:*

![\[Architektur für die Migration von lokalem SQL Server zu Amazon RDS mithilfe von SQL Server-Tools\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/27942833-c294-405c-90e6-32cc197e36ee/images/45ee14e4-3c7e-4b35-a2c9-3e8e3c7e6cee.png)


## Tools
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-tools"></a>
+ [AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt verschiedene Arten von Quell- und Zieldatenbanken. Einzelheiten finden Sie unter [AWS DMS Step-by-Step Walkthroughs](https://docs.aws.amazon.com/dms/latest/sbs/DMS-SBS-Welcome.html). Wenn AWS DMS die Quelldatenbank nicht unterstützt, wählen Sie eine andere Methode für die Migration der Daten. 
+ Zu den systemeigenen Microsoft SQL Server-Tools gehören Sicherung und Wiederherstellung, der Assistent zum Kopieren von Datenbanken sowie das Kopieren und Anfügen von Datenbanken.

## Epen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie die Quell- und Zieldatenbankversion und die Engine. |  | DBA | 
| Identifizieren Sie die Hardwareanforderungen für die Zielserverinstanz. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Speicheranforderungen (Speichertyp und Kapazität). |  | DBA, Systemadministrator | 
| Wählen Sie den richtigen Instanztyp auf der Grundlage von Kapazität, Speicherfunktionen und Netzwerkfunktionen aus. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für Quell- und Zieldatenbanken. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Strategie zur Anwendungsmigration. |  | DBA, Systemadministrator | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer Virtual Private Cloud (VPC). |  | Systemadministrator | 
| Erstellen Sie Sicherheitsgruppen. |  | Systemadministrator | 
| Konfigurieren und starten Sie eine Amazon RDS-DB-Instance. |  | DBA, Systemadministrator | 

### Daten migrieren — Option 1
<a name="migrate-data---option-1"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwenden Sie native SQL Server-Tools oder Tools von Drittanbietern, um Datenbankobjekte und Daten zu migrieren. |  | DBA | 

### Daten migrieren — Option 2
<a name="migrate-data---option-2"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie Daten mit AWS DMS. |  | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der Strategie zur Anwendungsmigration. |  | DBA, App-Besitzer, Systemadministrator | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die Anwendungsclients auf die neue Infrastruktur um. |  | DBA, Besitzer der App, Systemadministrator | 

### Schließen Sie das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie die temporären AWS-Ressourcen herunter. |  | DBA, Systemadministrator | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA, App-Besitzer, Systemadministrator | 
| Erfassen Sie Kennzahlen wie die Zeit bis zur Migration, den Prozentsatz manueller Aufgaben im Vergleich zu automatisierten Aufgaben und Kosteneinsparungen. |  | DBA, App-Besitzer, Systemadministrator | 
| Schließen Sie das Projekt ab und geben Sie Feedback. |  | DBA, App-Besitzer, Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-resources"></a>

**Referenzen**
+ [Bereitstellung von Microsoft SQL Server auf Amazon Web Services](https://d1.awsstatic.com/whitepapers/RDS/Deploying_SQLServer_on_AWS.pdf) 
+ [AWS DMS-Webseite](https://aws.amazon.com/dms/)
+ [Amazon RDS — Preise](https://aws.amazon.com/rds/pricing/)
+ [Microsoft-Produkte auf AWS](https://aws.amazon.com/windows/products/)
+ [Microsoft-Lizenzierung auf AWS](https://aws.amazon.com/windows/resources/licensing/)
+ [Microsoft SQL Server auf AWS](https://aws.amazon.com/windows/products/sql/)
+ [Verwenden der Windows-Authentifizierung mit einer Microsoft SQL Server-DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_SQLServerWinAuth.html)
+ [Amazon RDS Multi-AZ-Bereitstellungen](https://aws.amazon.com/rds/details/multi-az/)

**Tutorials und Videos**
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)
+ [AWS DMS (Video)](https://www.youtube.com/watch?v=zb4GcjEdl8U) 
+ [Amazon RDS (Video)](https://www.youtube.com/watch?v=igRfulrrYCo)  

# Migrieren Sie Daten mithilfe von Rclone von Microsoft Azure Blob zu Amazon S3
<a name="migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone"></a>

*Suhas Basavaraj, Aidan Keane und Corey Lane, Amazon Web Services*

## Zusammenfassung
<a name="migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone-summary"></a>

Dieses Muster beschreibt, wie [Rclone](https://rclone.org/) verwendet wird, um Daten vom Microsoft Azure Blob-Objektspeicher in einen Amazon Simple Storage Service (Amazon S3) -Bucket zu migrieren. Sie können dieses Muster verwenden, um eine einmalige Migration oder eine fortlaufende Synchronisation der Daten durchzuführen. Rclone ist ein in Go geschriebenes Befehlszeilenprogramm, das zum Verschieben von Daten zwischen verschiedenen Speichertechnologien von Cloud-Anbietern verwendet wird.

## Voraussetzungen und Einschränkungen
<a name="migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Daten, die im Azure Blob Container Service gespeichert sind

## Architektur
<a name="migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone-architecture"></a>

**Quelltechnologie-Stack**
+ Azure Blob-Speichercontainer

**Zieltechnologie-Stack**
+ Amazon-S3-Bucket
+ Linux-Instanz von Amazon Elastic Compute Cloud (Amazon EC2)

**Architektur**

![\[Migrieren Sie Daten von Microsoft Azure zu Amazon S3\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/6ead815d-7768-4726-b27d-97a70cd21081/images/abe69eee-632f-4ca2-abf6-3223f3f3ec94.png)


## Tools
<a name="migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone-tools"></a>
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.
+ [Rclone](https://rclone.org/) **ist ein Open-Source-Befehlszeilenprogramm, das von rsync inspiriert wurde.** Es wird zur Verwaltung von Dateien auf vielen Cloud-Speicherplattformen verwendet.

## Best Practices
<a name="migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone-best-practices"></a>

Beachten Sie bei der Migration von Daten von Azure zu Amazon S3 die folgenden Überlegungen, um unnötige Kosten oder langsame Übertragungsgeschwindigkeiten zu vermeiden:
+ Erstellen Sie Ihre AWS-Infrastruktur in derselben geografischen Region wie das Azure-Speicherkonto und der Blob-Container, z. B. in der AWS-Region `us-east-1` (Nord-Virginia) und der Azure-Region. `East US`
+ Vermeiden Sie nach Möglichkeit die Verwendung von NAT Gateway, da dadurch Datenübertragungsgebühren sowohl für die eingehende als auch für die ausgehende Bandbreite anfallen.
+ Verwenden Sie einen [VPC-Gateway-Endpunkt für Amazon S3](https://docs.aws.amazon.com/vpc/latest/privatelink/vpc-endpoints-s3.html), um die Leistung zu steigern.
+ Erwägen Sie die Verwendung einer EC2 Instance auf Basis des AWS Graviton2 (ARM) -Prozessors, um im Vergleich zu Intel x86-Instances geringere Kosten und eine höhere Leistung zu erzielen. Rclone ist stark querkompiliert und bietet eine vorkompilierte ARM-Binärdatei.

## Epen
<a name="migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone-epics"></a>

### Bereiten Sie AWS- und Azure-Cloud-Ressourcen vor
<a name="prepare-aws-and-azure-cloud-resources"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie einen S3-Ziel-Bucket vor. | [Erstellen Sie einen neuen S3-Bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html) in der entsprechenden AWS-Region oder wählen Sie einen vorhandenen Bucket als Ziel für die Daten, die Sie migrieren möchten. | AWS-Administrator | 
| Erstellen Sie eine IAM-Instance-Rolle für Amazon EC2. | [Erstellen Sie eine neue AWS Identity and Access Management (IAM) -Rolle für Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/iam-roles-for-amazon-ec2.html#working-with-iam-roles). Diese Rolle gewährt Ihrer EC2 Instance Schreibzugriff auf den Ziel-S3-Bucket. | AWS-Administrator | 
| Fügen Sie der IAM-Instanzrolle eine Richtlinie hinzu. | Verwenden Sie die IAM-Konsole oder die AWS-Befehlszeilenschnittstelle (AWS CLI), um eine Inline-Richtlinie für die EC2 Instance-Rolle zu erstellen, die Schreibzugriffsberechtigungen für den S3-Ziel-Bucket gewährt. Eine Beispielrichtlinie finden Sie im Abschnitt [Zusätzliche Informationen](#migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone-additional). | AWS-Administrator | 
| Starten Sie eine EC2 Instanz. | Starten Sie eine Amazon EC2 Linux-Instance, die für die Verwendung der neu erstellten IAM-Servicerolle konfiguriert ist. Diese Instanz benötigt außerdem Zugriff auf öffentliche Azure-API-Endpunkte über das Internet. Erwägen Sie die Verwendung von [AWS Graviton-basierten EC2 Instances](https://docs.aws.amazon.com/compute-optimizer/latest/ug/graviton-recommendations.html), um die Kosten zu senken. Rclone stellt ARM-kompilierte Binärdateien bereit. | AWS-Administrator | 
| Erstellen Sie einen Azure AD-Dienstprinzipal. | Verwenden Sie die Azure-CLI, um einen Azure Active Directory-Dienstprinzipal (Azure AD) zu erstellen, der schreibgeschützten Zugriff auf den Azure Blob-Quellspeichercontainer hat. Anweisungen finden Sie im Abschnitt [Zusätzliche](#migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone-additional) Informationen. Speichern Sie diese Anmeldeinformationen auf Ihrer EC2 Instance am Standort`~/azure-principal.json`. | Cloud-Administrator, Azure | 

### Installieren und konfigurieren Sie Rclone
<a name="install-and-configure-rclone"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Downloaden und installieren Sie Rclone.  | Laden Sie das Befehlszeilenprogramm Rclone herunter und installieren Sie es. Installationsanweisungen finden Sie in der [Rclone-Installationsdokumentation](https://rclone.org/install/). | Allgemein AWS, Cloud-Administrator | 
| Rclone konfigurieren. | Kopieren Sie die folgende `rclone.conf` Beispieldatei. `AZStorageAccount`Ersetzen Sie es durch Ihren Azure Storage-Kontonamen und `us-east-1` durch die AWS-Region, in der sich Ihr S3-Bucket befindet. Speichern Sie diese Datei an dem Speicherort `~/.config/rclone/rclone.conf` auf Ihrer EC2 Instance.<pre>[AZStorageAccount]<br />type = azureblob<br />account = AZStorageAccount<br />service_principal_file = azure-principal.json<br /><br />[s3]<br />type = s3<br />provider = AWS<br />env_auth = true<br />region = us-east-1</pre> | Allgemein AWS, Cloud-Administrator | 
| Überprüfen Sie die Rclone-Konfiguration. | Um sicherzustellen, dass Rclone konfiguriert ist und die Berechtigungen ordnungsgemäß funktionieren, stellen Sie sicher, dass Rclone Ihre Konfigurationsdatei analysieren kann und dass auf Objekte in Ihrem Azure Blob-Container und S3-Bucket zugegriffen werden kann. Im Folgenden finden Sie beispielsweise Validierungsbefehle.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone.html) | Allgemein AWS, Cloud-Administrator | 

### Migrieren Sie Daten mit Rclone
<a name="migrate-data-using-rclone"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie Daten aus Ihren Containern. | Führen Sie den Befehl Rclone [copy](https://rclone.org/commands/rclone_copy/) oder [sync](https://rclone.org/commands/rclone_sync/) aus.  **Beispiel: Kopieren**Dieser Befehl kopiert Daten aus dem Azure-Blob-Quellcontainer in den S3-Ziel-Bucket.<pre>rclone copy AZStorageAccount:blob-container s3:amzn-s3-demo-bucket1</pre>**Beispiel: Sync**Dieser Befehl synchronisiert Daten zwischen dem Azure-Blob-Quellcontainer und dem Ziel-S3-Bucket. ****<pre>rclone sync AZStorageAccount:blob-container s3:amzn-s3-demo-bucket1</pre>Wenn Sie den Befehl **sync** verwenden, werden Daten, die nicht im Quellcontainer vorhanden sind, aus dem Ziel-S3-Bucket gelöscht. | Allgemein AWS, Cloud-Administrator | 
| Synchronisieren Sie Ihre Container.  | Führen Sie nach Abschluss der ersten Kopie den Befehl Rclone **sync** für die laufende Migration aus, sodass nur neue Dateien kopiert werden, die im S3-Ziel-Bucket fehlen. | Allgemein AWS, Cloud-Administrator | 
| Stellen Sie sicher, dass die Daten erfolgreich migriert wurden.  | [Führen Sie die Befehle Rclone [lsd](https://rclone.org/commands/rclone_lsd/) und ls aus, um zu überprüfen, ob die Daten erfolgreich in den Ziel-S3-Bucket kopiert wurden.](https://rclone.org/commands/rclone_ls/) | Allgemein AWS, Cloud-Administrator | 

## Zugehörige Ressourcen
<a name="migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone-resources"></a>
+ [Amazon S3 S3-Benutzerhandbuch](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) (AWS-Dokumentation)
+ [IAM-Rollen für Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/iam-roles-for-amazon-ec2.html) (AWS-Dokumentation)
+ [Einen Microsoft Azure Blob-Container](https://docs.microsoft.com/en-us/azure/storage/blobs/storage-quickstart-blobs-portal) erstellen (Microsoft Azure-Dokumentation)
+ [Rclone-Befehle](https://rclone.org/commands/) (Rclone-Dokumentation)

## Zusätzliche Informationen
<a name="migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone-additional"></a>

**Beispiel für eine Rollenrichtlinie für Instanzen EC2 **

Diese Richtlinie gewährt Ihrer EC2 Instance Lese- und Schreibzugriff auf einen bestimmten Bucket in Ihrem Konto. Wenn Ihr Bucket einen vom Kunden verwalteten Schlüssel für die serverseitige Verschlüsselung verwendet, benötigt die Richtlinie möglicherweise zusätzlichen Zugriff auf AWS Key Management Service (AWS KMS).

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:ListBucket",
                "s3:DeleteObject",
                "s3:GetObject",
                "s3:PutObject",
                "s3:PutObjectAcl"
            ],
            "Resource": [
              "arn:aws:s3:::amzn-s3-demo-bucket/*",
              "arn:aws:s3:::amzn-s3-demo-bucket"
            ]
        },
        {
            "Effect": "Allow",
            "Action": "s3:ListAllMyBuckets",
            "Resource": "arn:aws:s3:::*"
        }    
    ]
}
```

**Einen schreibgeschützten Azure AD-Dienstprinzipal erstellen**

Ein Azure-Dienstprinzipal ist eine Sicherheitsidentität, die von Kundenanwendungen, Diensten und Automatisierungstools für den Zugriff auf bestimmte Azure-Ressourcen verwendet wird. Stellen Sie sich das als Benutzeridentität (Login und Passwort oder Zertifikat) mit einer bestimmten Rolle und streng kontrollierten Zugriffsberechtigungen für Ihre Ressourcen vor. Gehen Sie wie folgt vor, um einen schreibgeschützten Dienstprinzipal zu erstellen, der die geringsten Rechte einhält und Daten in Azure vor versehentlichem Löschen schützt: 

1. Melden Sie sich bei Ihrem Microsoft Azure-Cloud-Kontoportal an und starten Sie Cloud Shell in PowerShell oder verwenden Sie die Azure-Befehlszeilenschnittstelle (CLI) auf Ihrer Workstation.

1. Erstellen Sie einen Dienstprinzipal und konfigurieren Sie ihn mit [schreibgeschütztem](https://docs.microsoft.com/en-us/azure/role-based-access-control/built-in-roles#storage-blob-data-reader) Zugriff auf Ihr Azure BLOB-Speicherkonto. Speichern Sie die JSON-Ausgabe dieses Befehls in einer lokalen Datei namens. `azure-principal.json` Die Datei wird auf Ihre EC2 Instanz hochgeladen. Ersetzen Sie die Platzhaltervariablen, die in geschweiften Klammern (`{`und`}`) angezeigt werden, durch Ihre Azure-Abonnement-ID, den Namen der Ressourcengruppe und den Namen des Speicherkontos.

   ```
   az ad sp create-for-rbac `
   --name AWS-Rclone-Reader `
   --role "Storage Blob Data Reader" `
   --scopes /subscriptions/{Subscription ID}/resourceGroups/{Resource Group Name}/providers/Microsoft.Storage/storageAccounts/{Storage Account Name}
   ```

# Migrieren Sie von Couchbase Server zu Couchbase Capella auf AWS
<a name="migrate-from-couchbase-server-to-couchbase-capella-on-aws"></a>

*Battulga Purevragchaa und Saurabh Shanbhag, Amazon Web Services*

*Mark Gamble, Keiner*

## Zusammenfassung
<a name="migrate-from-couchbase-server-to-couchbase-capella-on-aws-summary"></a>

Couchbase Capella ist eine vollständig verwaltete NoSQL-Datenbank als Service (DBaaS) für unternehmenskritische Anwendungen (z. B. Benutzerprofile oder Online-Kataloge und Inventarverwaltung). Couchbase Capella verwaltet Ihren DBaa S-Workload in einem von Couchbase verwalteten Amazon Web Services (AWS) -Konto. Capella macht es einfach, die Replikation mit mehreren Clustern, mehreren AWS-Regionen, Multicloud und Hybrid-Clouds über eine einzige Oberfläche auszuführen und zu verwalten.

Couchbase Capella hilft Ihnen dabei, Ihre Couchbase Server-Anwendungen sofort zu skalieren, sodass Sie innerhalb von Minuten Cluster mit mehreren Knoten erstellen können. [https://www.couchbase.com/products/full-text-search](https://www.couchbase.com/products/full-text-search) Außerdem entfällt die Notwendigkeit, Installationen, Upgrades, Backups und die allgemeine Datenbankwartung zu verwalten. 

Dieses Muster beschreibt die Schritte und bewährten Methoden für die Migration einer selbstverwalteten [Couchbase Server-Umgebung](https://www.couchbase.com/products/server) in die AWS-Cloud. Das Muster bietet einen wiederholbaren Prozess für die Migration von Daten und Indizes von Couchbase Serverclustern, die entweder vor Ort oder in der Cloud ausgeführt werden, zu Couchbase Capella. Mithilfe dieser Schritte können Sie Probleme bei der Migration vermeiden und den gesamten Migrationsprozess beschleunigen.

Dieses Muster bietet die folgenden zwei Migrationsoptionen:
+ **Option 1** ist geeignet, wenn Sie weniger als 50 Indizes migrieren müssen. 
+ **Option 2** ist geeignet, wenn Sie mehr als 50 Indizes migrieren müssen. 

Sie können auch [Beispieldaten auf Ihrem selbst verwalteten Couchbase-Server einrichten](https://docs.couchbase.com/server/current/manage/manage-settings/install-sample-buckets.html), um sie zusammen mit dem Migrationsleitfaden zu befolgen.

*Wenn Sie die **Migrationsoption 2** wählen oder Bereiche oder Sammlungen verwenden, die nicht dem Standardwert entsprechen, müssen Sie die Beispielkonfigurationsdatei verwenden, die sich im Abschnitt Zusätzliche Informationen befindet.*

## Voraussetzungen und Einschränkungen
<a name="migrate-from-couchbase-server-to-couchbase-capella-on-aws-prereqs"></a>

**Voraussetzungen**
+ Ein vorhandenes kostenpflichtiges Couchbase Capella-Konto. Sie können auch ein [Couchbase Capella-Konto auf AWS](https://aws.amazon.com/marketplace/pp/prodview-xrhx5zgue5c26) erstellen und die kostenlose Testversion von Couchbase Capella nutzen und dann auf ein kostenpflichtiges Konto upgraden, um Ihren Cluster für die Migration zu konfigurieren. [Folgen Sie den Anweisungen unter Erste Schritte mit Couchbase Capella, um mit der Testversion zu beginnen.](https://docs.couchbase.com/cloud/get-started/create-account.html)
+ Eine bestehende, selbstverwaltete Couchbase Server-Umgebung, entweder vor Ort oder bei einem Cloud-Dienstanbieter bereitgestellt. 
+ Für Migrationsoption 2 Couchbase Shell und eine Konfigurationsdatei. Um die Konfigurationsdatei zu erstellen, können Sie die Beispieldatei verwenden, die sich im Abschnitt *Zusätzliche Informationen befindet*.
+ Vertrautheit mit der Verwaltung von Couchbase Server und Couchbase Capella.
+ Vertrautheit mit dem Öffnen von TCP-Ports und dem Ausführen von Befehlen in einer Befehlszeilenschnittstelle (CLI).

Für den Migrationsprozess sind außerdem die in der folgenden Tabelle beschriebenen Rollen und Fachkenntnisse erforderlich.


| 
| 
| Rolle | Kompetenz | Verantwortlichkeiten | 
| --- |--- |--- |
| Couchbase-Administrator | Vertrautheit mit Couchbase Server und Couchbase CapellaGrundkenntnisse in der Befehlszeile sind hilfreich, aber nicht erforderlich | Couchbase Server- und Capella-spezifische Aufgaben | 
| Systemadministrator, IT-Administrator | Vertrautheit mit der selbstverwalteten Couchbase Server-Systemumgebung und Verwaltung | Öffnen von Ports und Ermitteln von IP-Adressen auf selbstverwalteten Couchbase Server-Clusterknoten | 

 

**Einschränkungen**
+ Dieses Muster wird verwendet, um Daten, Indizes und [Couchbase-Volltextsuchindizes von Couchbase](https://docs.couchbase.com/server/current/fts/full-text-intro.html) Server zu Couchbase Capella auf AWS zu migrieren. [https://docs.couchbase.com/server/current/eventing/eventing-overview.html](https://docs.couchbase.com/server/current/eventing/eventing-overview.html)
+ Couchbase Capella ist in mehreren AWS-Regionen verfügbar. up-to-dateInformationen zu den Regionen, die Capella unterstützt, finden Sie unter [Amazon Web Services](https://docs.couchbase.com/cloud/reference/aws.html) in der Couchbase-Dokumentation.

**Produktversionen**
+ [Couchbase Server (Community oder Enterprise) Edition Version 5.x oder höher](https://docs.couchbase.com/server/current/release-notes/relnotes.html)

## Architektur
<a name="migrate-from-couchbase-server-to-couchbase-capella-on-aws-architecture"></a>

**Quelltechnologie-Stack**
+ Couchbase-Server

**Zieltechnologie-Stack**
+ Couchbase Capella

**Zielarchitektur**

![\[Couchbase Capella-Migration zum Couchbase-Cluster in der Capella-Datenebene auf AWS in vier Schritten.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/14ac5a81-eade-4708-9335-f5602fa07824/images/95cd7f33-742e-4d10-8e2c-37c7b4d9df45.png)


1. **Sie greifen über die Capella Control Plane auf Couchbase Capella zu.** Sie können die Capella Control Plane verwenden, um Folgendes zu tun:
   + Kontrollieren und überwachen Sie Ihr Konto.
   + Verwalten Sie Cluster und Daten, Indizes, Benutzer und Gruppen, Zugriffsberechtigungen, Überwachung und Ereignisse.

1. Cluster werden erstellt.

1. Die **Capella-Datenebene** befindet sich im von Couchbase verwalteten AWS-Konto. Nachdem Sie einen neuen Cluster erstellt haben, stellt Couchbase Capella ihn in mehreren Availability Zones in der ausgewählten AWS-Region bereit.

1. Sie können Couchbase-Anwendungen in einer VPC in Ihrem AWS-Konto entwickeln und bereitstellen. [In der Regel greift diese VPC über VPC-Peering auf die Capella-Datenebene zu.](https://docs.couchbase.com/cloud/clouds/private-network.html)

## Tools
<a name="migrate-from-couchbase-server-to-couchbase-capella-on-aws-tools"></a>
+ [Couchbase Cross Data Center Replication (XDCR)](https://docs.couchbase.com/cloud/current/clusters/xdcr/xdcr.html) hilft bei der Replikation von Daten über Cluster hinweg, die sich bei verschiedenen Cloud-Anbietern und verschiedenen Rechenzentren befinden. Es wird verwendet, um Daten aus selbstverwalteten Couchbase Server-Clustern nach Couchbase Capella zu migrieren.
**Anmerkung**  
XDCR kann nicht mit Couchbase Server Community Edition für die Migration zu Couchbase Capella verwendet werden. [Stattdessen können Sie cbexport verwenden.](https://docs.couchbase.com/server/current/tools/cbexport.html) Weitere Informationen finden Sie im Abschnitt *Daten aus der Community Edition migrieren*.
+ [Couchbase Shell](https://couchbase.sh/docs/) ist eine Befehlszeilen-Shell für Couchbase Server und Couchbase Capella für den Zugriff auf lokale und entfernte Couchbase-Cluster. In diesem Muster wird Couchbase Shell zur Migration von Indizes verwendet.
+ [cbexport](https://docs.couchbase.com/server/current/tools/cbexport.html) ist ein Couchbase-Hilfsprogramm zum Exportieren von Daten aus einem Couchbase-Cluster. In den [Couchbase Server CLI-Tools](https://docs.couchbase.com/server/current/cli/cli-intro.html) enthalten.

## Epen
<a name="migrate-from-couchbase-server-to-couchbase-capella-on-aws-epics"></a>

### Bereiten Sie die Migration vor
<a name="prepare-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bewerten Sie die Größe des selbstverwalteten Couchbase Server-Clusters. | Melden Sie sich bei der [Couchbase-Webkonsole für Couchbase](https://docs.couchbase.com/server/current/manage/manage-ui/manage-ui.html) Server an und überprüfen Sie die Knoten und Buckets Ihres selbstverwalteten Clusters. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html)Sie verwenden Ihre selbst verwalteten Couchbase Server-Clusterkonfigurationen als allgemeinen Leitfaden für die Dimensionierung und Konfiguration des Zielclusters auf Couchbase Capella.[Wenn Sie Hilfe bei einer detaillierteren Anleitung zur Dimensionierung von Couchbase Capella benötigen, wenden Sie sich an Couchbase.](https://www.couchbase.com/contact) | Couchbase-Administrator | 
| Zeichnen Sie die Couchbase-Dienstverteilung auf dem selbstverwalteten Couchbase Server-Cluster auf.  | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator | 
| Notieren Sie sich die IP-Adressen der selbstverwalteten Couchbase Server-Clusterknoten. | (Ignorieren Sie diesen Schritt, wenn Sie die Community Edition verwenden.) Notieren Sie sich die IP-Adresse für jeden Knoten in Ihrem Cluster. Sie werden später zur Zulassungsliste auf Ihrem Couchbase Capella-Cluster hinzugefügt. | Couchbase-Administrator, Systemadministrator | 

### Stellen Sie Ressourcen auf Couchbase Capella bereit und konfigurieren Sie sie
<a name="deploy-and-configure-resources-on-couchbase-capella"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Auswahl einer Vorlage. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator | 
| Wählen und konfigurieren Sie die Knoten. | Wählen und konfigurieren Sie die Knoten so, dass sie zu Ihrer selbstverwalteten Couchbase Server-Clusterumgebung passen, einschließlich der Anzahl der Knoten, der Dienstverteilung, der Rechenleistung oder des Arbeitsspeichers und des Speichers.[Couchbase Capella verwendet bewährte Methoden zur multidimensionalen Skalierung.](https://docs.couchbase.com/cloud/clusters/scale-cluster.html#scale-a-cluster) Dienste und Knoten können nur gemäß den bewährten Bereitstellungsmethoden ausgewählt werden. Dies kann bedeuten, dass Sie die Konfigurationen Ihres selbstverwalteten Couchbase Server-Clusters nicht genau anpassen können. | Couchbase-Administrator | 
| Stellen Sie den Cluster bereit. | Wählen Sie eine Supportzone und ein Supportpaket aus und stellen Sie dann den Cluster bereit. Ausführliche Schritte und Anweisungen finden Sie in der Couchbase-Dokumentation unter [Cluster erstellen](https://docs.couchbase.com/cloud/clusters/create-cluster.html).Wenn Sie die kostenlose Testversion von Couchbase Capella verwenden, müssen Sie sie in ein kostenpflichtiges Konto umwandeln, bevor Sie mit der Migration beginnen. **Um Ihr Konto zu konvertieren, öffnen Sie in der Couchbase Capella Control Plane den Bereich **Abrechnung** und wählen Sie dann Aktivierungs-ID hinzufügen.** Die Aktivierungs-ID wird an Ihre Rechnungskontakt-E-Mail-Adresse gesendet, nachdem Sie einen Kaufvertrag mit Couchbase Sales abgeschlossen haben oder nachdem Sie einen Kauf über [AWS](https://aws.amazon.com/marketplace/pp/prodview-xrhx5zgue5c26) Marketplace getätigt haben. | Couchbase-Administrator | 
| Erstellen Sie einen Benutzer mit Datenbankanmeldedaten.  | Ein Benutzer mit Datenbankanmeldedaten ist clusterspezifisch und besteht aus einem Benutzernamen, einem Passwort und einer Reihe von Bucket-Rechten. Dieser Benutzer ist erforderlich, um Buckets zu erstellen und auf Bucket-Daten zuzugreifen. Erstellen Sie in der Couchbase Capella Control Plane Datenbankanmeldedaten für den neuen Cluster, indem Sie den Anweisungen unter [Datenbankanmeldedaten konfigurieren](https://docs.couchbase.com/cloud/clusters/manage-database-users.html) in der Couchbase Capella-Dokumentation folgen.Einem Organisationsbenutzer müssen Anmeldeinformationen für die Organisationsrolle zugewiesen werden, wenn er entweder remote oder über die Couchbase Capella-Benutzeroberfläche auf Bucket-Daten in einem bestimmten Cluster zugreifen möchte. Dies ist unabhängig von Datenbankanmeldedaten, die normalerweise von Apps und Integrationen verwendet werden. Wenn Sie den Organisationsbenutzer erstellen, können Sie die Ziel-Buckets auf Ihrem Couchbase Capella-Cluster erstellen und verwalten. | Couchbase-Administrator | 
| Wenn Sie die Migrationsoption 2 verwenden, installieren Sie Couchbase Shell. | Sie können Couchbase Shell auf jedem System installieren, das Netzwerkzugriff sowohl auf Ihren selbst verwalteten Couchbase-Server als auch auf die Couchbase Capella-Cluster hat. Weitere Informationen finden [Sie unter Installieren von Couchbase Shell Version 1.0.0-beta.5 in der Couchbase Shell-Dokumentation](https://couchbase.sh/docs/#_installation).Stellen Sie sicher, dass Couchbase Shell installiert ist, indem Sie [eine Verbindung zu Ihrem selbstverwalteten Cluster in einem Befehlszeilenterminal testen](https://couchbase.sh/docs/#_connecting_to_a_cluster). | Couchbase-Administrator, Systemadministrator | 
| IP-Adressen zulassen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html)Weitere Informationen zu zulässigen IP-Adressen finden [Sie unter Zulässige IP-Adressen konfigurieren in der Couchbase-Dokumentation](https://docs.couchbase.com/cloud/get-started/configure-cluster-access.html#allow-ip-address). | Couchbase-Administrator, Systemadministrator | 
| Zertifikate konfigurieren. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator, Systemadministrator | 
| Erstellen Sie die Konfigurationsdatei für Couchbase Shell. | Erstellen Sie eine Konfigurations-Punktdatei im Home-Verzeichnis der Couchbase Shell-Installation (z. B.). `/<HOME_DIRECTORY>/.cbsh/config` Weitere Informationen finden Sie unter [Config Dotfiles](https://couchbase.sh/docs/#_the_config_dotfiles) in der Couchbase-Dokumentation.Fügen Sie der Konfigurationsdatei Verbindungseigenschaften für die Quell- und Zielcluster hinzu. Sie können die Beispielkonfigurationsdatei im Abschnitt *Zusätzliche Informationen* verwenden und die Einstellungen für Ihre Cluster bearbeiten. Speichern Sie die Konfigurationsdatei mit den aktualisierten Einstellungen in dem `.cbsh` Ordner (z. B.`/<HOME_DIRECTORY>/.cbsh/config`). | Couchbase-Administrator, Systemadministrator | 
| Ziel-Buckets erstellen. | Erstellen Sie für jeden Quell-Bucket einen Ziel-Bucket in Ihrem Couchbase Capella-Cluster, indem Sie den Anweisungen unter [Bucket erstellen](https://docs.couchbase.com/cloud/clusters/data-service/manage-buckets.html#add-bucket) in der Couchbase-Dokumentation folgen.Ihre Ziel-Bucket-Konfigurationen müssen mit den Bucket-Namen, Speichereinstellungen und Konfliktlösungseinstellungen der Buckets in Ihrem selbstverwalteten Couchbase Server-Cluster übereinstimmen. | Couchbase-Administrator | 
| Bereiche und Sammlungen erstellen. | Jeder Bucket enthält einen Standardbereich und eine Standardsammlung mit dem `_default._default` Schlüsselraum. Wenn Sie andere Schlüsselräume für Ihren Bereich und Ihre Sammlung verwenden, müssen Sie identische Schlüsselräume im Capella-Zielcluster erstellen.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html)<pre>scopes --clusters "On-Prem-Cluster" --bucket <BUCKET_NAME> | select scope | where scope != "_default" | each { |it| scopes create $it.scope --clusters "Capella-Cluster" }<br />collections --clusters "On-Prem-Cluster" --bucket <BUCKET_NAME> | select scope collection | where $it.scope != "_default" | where $it.collection != "_default" | each { |it| collections create $it.collection --clusters "Capella-Cluster" --bucket <BUCKET_NAME> --scope $it.scope }</pre> | Couchbase-Administrator | 

### Migrieren Sie die Daten aus der Enterprise Edition
<a name="migrate-the-data-from-enterprise-edition"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Öffnen Sie TCP-Ports auf den selbstverwalteten Couchbase Server-Clusterknoten. | Stellen Sie sicher, dass die entsprechenden Ports für die XDCR-Kommunikation auf den Knoten des selbstverwalteten Couchbase Server-Clusters geöffnet sind. [Weitere Informationen finden Sie in der Dokumentation zu den Couchbase Server-Ports.](https://docs.couchbase.com/server/current/install/install-ports.html#ports-listed-by-communication-path) | Couchbase-Administrator, Systemadministrator | 
| Wenn Sie Couchbase Server Enterprise Edition verwenden, richten Sie Couchbase XDCR ein. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator | 
| Starten Sie Couchbase XDCR. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator | 

### Migrieren Sie die Indizes mithilfe von Option 1
<a name="migrate-the-indexes-by-using-option-1"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie selbstverwaltete Cluster-Indizes zu Couchbase Capella. | Wir empfehlen diesen Vorgang, wenn Sie weniger als 50 Indizes migrieren müssen. Wenn Sie mehr als 50 Indizes migrieren müssen, empfehlen wir Ihnen, die Migrationsoption 2 zu verwenden.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator, Systemadministrator | 

### Migrieren Sie die Indizes mithilfe von Option 2
<a name="migrate-the-indexes-by-using-option-2"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie die Indexdefinitionen.  | Wir empfehlen diesen Vorgang, wenn Sie mehr als 50 Indizes migrieren müssen. Wenn Sie weniger als 50 Indizes migrieren müssen, empfehlen wir Ihnen, die Migrationsoption 1 zu verwenden.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator, Systemadministrator | 
| Erstellen Sie die Indexdefinitionen.  | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator, Systemadministrator | 

### Migrieren Sie Volltext-Suchindexe
<a name="migrate-full-text-search-indexes"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie selbstverwaltete Cluster-Volltextsuchindizes zu Couchbase Capella. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator | 

### Migrieren Sie Daten aus der Couchbase Community Edition
<a name="migrate-data-from-couchbase-community-edition"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Exportieren Sie Daten aus der selbstverwalteten Couchbase Server Community Edition. | Verschlüsseltes XDCR ist in der Couchbase Community Edition nicht verfügbar. Sie können Daten aus der Couchbase Community Edition exportieren und die Daten dann manuell in Couchbase Capella importieren.Verwenden `cbexport` Sie die Befehlszeile, um Daten aus dem Quell-Bucket zu exportieren.Der folgende Befehl dient als Beispiel.<pre>cbexport json \<br />--cluster localhost \<br />--bucket <SOURCE BUCKET NAME> \<br />--format lines \<br />--username <USERNAME> \<br />--password <PASSWORD> \<br />--include-key cbkey \<br />--scope-field cbscope \<br />--collection-field cbcoll \<br />--output cbexported_data.json</pre>Beachten Sie`cbkey`, dass `cbscope``cbcoll`, und beliebige Bezeichnungen `cbexported_data.json` sind. Sie werden später im Prozess referenziert. Wenn Sie sie also anders benennen möchten, notieren Sie sich das. | Couchbase-Administrator | 
| Daten in Couchbase Capella importieren. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html)Für große Dateien unterstützt Couchbase Capella den Befehlszeilenimport mit cURL. Weitere Informationen zu den Importoptionen finden Sie unter [Daten importieren](https://docs.couchbase.com/cloud/clusters/data-service/import-data-documents.html) in der Couchbase Capella-Dokumentation. | Couchbase-Administrator | 

### Testen und verifizieren Sie die Migration
<a name="test-and-verify-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Datenmigration. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator | 
| Überprüfen Sie die Indexmigration.  | **Wählen Sie in der Couchbase Capella Control Plane in der Dropdownliste **Tools** für Ihren Zielcluster die Option Indizes aus.** Stellen Sie sicher, dass die Indizes migriert und erstellt wurden. | Couchbase-Administrator | 
| Überprüfen Sie die Abfrageergebnisse.  | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator | 
| Überprüfen Sie die Ergebnisse der Volltextsuche (gilt, wenn Sie FTS-Indizes migriert haben). | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-couchbase-server-to-couchbase-capella-on-aws.html) | Couchbase-Administrator | 

## Zugehörige Ressourcen
<a name="migrate-from-couchbase-server-to-couchbase-capella-on-aws-resources"></a>

**Bereiten Sie die Migration vor**
+ [Beginnen Sie mit der kostenlosen Testversion von Couchbase Capella](https://cloud.couchbase.com/sign-up)
+ [Anforderungen des Cloud-Anbieters für Couchbase Capella](https://docs.couchbase.com/cloud/reference/aws.html)
+ [Größenrichtlinien für Couchbase Capella](https://docs.couchbase.com/cloud/clusters/sizing.html)

**Migrieren Sie die Daten und Indizes**
+ [Couchbase XDCR](https://docs.couchbase.com/cloud/clusters/xdcr/xdcr.html)
+ [Couchbase Shell-Dokumentation](https://couchbase.sh/docs/)

**Couchbase Capella und Support SLAs **
+ [Couchbase](https://www.couchbase.com/capellasla) Capella-Serviceverträge () SLAs
+ [Support-Richtlinie für den Couchbase Capella-Service](https://www.couchbase.com/support-policy/cloud)

## Zusätzliche Informationen
<a name="migrate-from-couchbase-server-to-couchbase-capella-on-aws-additional"></a>

Der folgende Code ist eine [Beispielkonfigurationsdatei für](https://couchbase.sh/docs/#_the_config_dotfiles) Couchbase Shell. 

```
Version = 1
 
[[clusters]]
identifier = "On-Prem-Cluster"
hostnames = ["<SELF_MANAGED_COUCHBASE_CLUSTER>"]
default-bucket = "travel-sample"
username = "<SELF_MANAGED_ADMIN>"
password = "<SELF_MANAGED_ADMIN_PWD>"
tls-cert-path = "/<ABSOLUTE_PATH_TO_SELF_MANAGED_ROOT_CERT>"
data-timeout = "2500ms"
connect-timeout = "7500ms"
query-timeout = "75s"
 
[[clusters]]
identifier = "Capella-Cluster"
hostnames = ["<COUCHBASE_CAPELLA_ENDPOINT>"]
default-bucket = "travel-sample"
username = "<CAPELLA_DATABASE_USER>"
password = "<CAPELLA_DATABASE_USER_PWD>"
tls-cert-path = "/<ABSOLUTE_PATH_TO_COUCHBASE_CAPELLA_ROOT_CERT>"
data-timeout = "2500ms"
connect-timeout = "7500ms"
query-timeout = "75s"
```

Bevor Sie die Konfigurationsdatei speichern, stellen Sie anhand der folgenden Tabelle sicher, dass Sie Ihre eigenen Quell- und Zielclusterinformationen hinzugefügt haben.

 


|  |  | 
| --- |--- |
| <SELF\$1MANAGED\$1COUCHBASE\$1CLUSTER> | Verwenden Sie die IP-Adresse für Ihren selbstverwalteten Couchbase Server-Cluster. | 
| <SELF\$1MANAGED\$1ADMIN> | Verwenden Sie den Administratorbenutzer für Ihren selbstverwalteten Couchbase Server-Cluster. | 
| <ABSOLUTE\$1PATH\$1TO\$1SELF\$1MANAGED\$1ROOT\$1CERT> | Verwenden Sie den absoluten Pfad zur gespeicherten Root-Zertifikatsdatei für Ihren selbstverwalteten Couchbase Server-Cluster. | 
| <COUCHBASE\$1CAPELLA\$1ENDPOINT> | Verwenden Sie den Verbindungsendpunkt für Ihren Couchbase Capella-Cluster. | 
| <CAPELLA\$1DATABASE\$1USER> | Verwenden Sie den Datenbankbenutzer für Ihren Couchbase Capella-Cluster. | 
| <CAPELLA\$1DATABASE\$1USER\$1PWD> | Verwenden Sie das Datenbank-Benutzerpasswort für Ihren Couchbase Capella-Cluster. | 
| <ABSOLUTE\$1PATH\$1TO\$1COUCHBASE\$1CAPELLA\$1ROOT\$1CERT> | Verwenden Sie den absoluten Pfad zur gespeicherten Root-Zertifikatsdatei für Ihren Couchbase Capella-Cluster. | 

# Migrieren Sie von IBM WebSphere Application Server zu Apache Tomcat auf Amazon EC2
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2"></a>

*Neal Ardeljan und Afroz Khan, Amazon Web Services*

## Zusammenfassung
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-summary"></a>

Dieses Muster führt Sie durch die Schritte für die Migration von einem lokalen System mit Red Hat Enterprise Linux (RHEL) 6.9 oder höher, auf dem IBM WebSphere Application Server (WAS) ausgeführt wird, zu RHEL 8 mit Apache Tomcat auf einer Amazon Elastic Compute Cloud (Amazon) -Instance. EC2 

Das Muster kann auf die folgenden Quell- und Zielversionen angewendet werden: 
+ WebSphere Application Server 7.x auf Apache Tomcat 8 (mit Java 7 oder höher) 
+ WebSphere Anwendungsserver 8.x auf Apache Tomcat 8 (mit Java 7 oder höher) 
+ WebSphere Anwendungsserver 8.5.5.x auf Apache Tomcat 9 (mit Java 8 oder höher) 
+ WebSphere Anwendungsserver 8.5.5.x auf Apache Tomcat 10 (mit Java 8 oder höher) 

## Voraussetzungen und Einschränkungen
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-prereqs"></a>

**Voraussetzungen******
+ Ein aktives AWS-Konto 
+ Java-Quellcode mit den folgenden Annahmen:
  + Verwendet die Java Development Kit (JDK) -Version von Java 7 oder höher 
  + Verwendet das Spring- oder Apache Struts-Framework 
  + Verwendet weder das Enterprise Java Beans (EJB) -Framework noch andere WebSphere Serverfunktionen, die für Tomcat nicht ohne weiteres verfügbar sind
  + Verwendet hauptsächlich Servlets oder Java Server Pages () JSPs 
  + Verwendet JDBC-Konnektoren (Java Database Connectivity), um eine Verbindung zu Datenbanken herzustellen  
+ Quelle: IBM WebSphere Application Server Version 7.x oder höher 
+ Zielversion von Apache Tomcat 8.5 oder höher  

## Architektur
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-architecture"></a>

******Quelltechnologie-Stack**
+ Eine Webanwendung, die mit dem Apache Struts Model-View-Controller (MVC) -Framework erstellt wurde 
+ Eine Webanwendung, die auf IBM WebSphere Application Server Version 7.x oder 8.x ausgeführt wird
+ Eine Webanwendung, die einen LDAP-Connector (Lightweight Directory Access Protocol) verwendet, um eine Verbindung zu einem LDAP-Verzeichnis (iPlanet/eTrust) herzustellen 
+ Eine Anwendung, die IBM Tivoli Access Manager (TAM) -Konnektivität verwendet, um das TAM-Benutzerkennwort zu aktualisieren (in der aktuellen Implementierung verwenden Anwendungen PD.jar)

******Lokale Datenbanken**
+ Oracle Database 21c (21.0.0.0)
+ Oracle Database 19c (19.0.0.0)
+ Oracle Database 12c Release 2 (12.2.0.1)
+ Oracle Database 12c Release 1 (12.1.0.2)

**Zieltechnologie-Stack**
+ Apache Tomcat Version 8 (oder höher) wird auf RHEL auf einer Instanz ausgeführt EC2 
+ Amazon Relational Database Service (Amazon RDS) für Oracle

Weitere Informationen zu den von Amazon RDS unterstützten Oracle-Versionen finden Sie auf der Website [Amazon RDS for Oracle](https://aws.amazon.com/rds/oracle/). 

**Zielarchitektur**

![\[Architektur für die Migration von IBM WebSphere zu Apache Tomcat auf Amazon EC2\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/96f91201-e0a6-4d3f-a94e-7bd68a59cc4e/images/11afe7c0-b400-423b-9dfe-02a915fe47ff.png)


## Tools
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-tools"></a>
+ Anwendungsebene: Neuaufbau der Java-Anwendung in eine WAR-Datei.
+ Datenbankebene: systemeigenes Backup und Wiederherstellung von Oracle.
+ Apache Tomcat-Migrationstool für Jakarta EE. Dieses Tool konvertiert eine für Java EE 8 geschriebene Webanwendung, die auf Apache Tomcat 9 läuft, automatisch in die Ausführung auf Apache Tomcat 10, das Jakarta EE 9 implementiert.

## Epen
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Vervollständigen Sie die Anwendungserkennung, den aktuellen Status und die Leistungsbasis. |  | BA, Leiter der Migration | 
| Validieren Sie die Quell- und Zieldatenbankversionen. |  | DBA | 
| Identifizieren Sie die Hardwareanforderungen für die EC2 Zielserverinstanz. |  | DBA, SysAdmin | 
| Identifizieren Sie die Speicheranforderungen (Speichertyp und Kapazität). |  | DBA, SysAdmin | 
| Wählen Sie den richtigen EC2 Instanztyp auf der Grundlage von Kapazität, Speicherfunktionen und Netzwerkfunktionen aus. |  | DBA, SysAdmin | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken. |  | DBA, SysAdmin | 
| Identifizieren Sie die Strategie und die Tools für die Anwendungsmigration. |  | DBA, Leiter der Migration | 
| Füllen Sie das Migrationsdesign und den Migrationsleitfaden für die Anwendung aus. |  | Leitung aufbauen, Leitung Migration | 
| Vervollständigen Sie das Runbook zur Anwendungsmigration. |  | Leiter Aufbau, Leiter der Umstellung, Leiter des Tests, Leiter der Migration | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer Virtual Private Cloud (VPC). |  | SysAdmin | 
| Erstellen Sie die Sicherheitsgruppen. |  | SysAdmin | 
| Konfigurieren und starten Sie Amazon RDS for Oracle. |  | DBA, SysAdmin | 

### Daten migrieren
<a name="migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Endpoints oder verschaffen Sie sich Zugriff auf diese, um die Datenbank-Backupdateien abzurufen. |  | DBA | 
| Verwenden Sie die native Datenbank-Engine oder ein Drittanbieter-Tool, um Datenbankobjekte und Daten zu migrieren. | Einzelheiten finden Sie unter „Migrieren von Datenbankobjekten und Daten“ im Abschnitt *Zusätzliche Informationen*. | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Reichen Sie den Änderungsantrag (CR) für die Migration ein. |  | Übernahme (Leitung) | 
| Besorgen Sie sich die CR-Genehmigung für die Migration. |  | Übernahme (Leitung) | 
| Folgen Sie der Strategie zur Anwendungsmigration gemäß dem Runbook zur Anwendungsmigration. | Einzelheiten finden Sie unter „Einrichtung der Anwendungsebene“ im Abschnitt *Zusätzliche Informationen*. | DBA, Migrationsingenieur, App-Besitzer | 
| Aktualisieren Sie die Anwendung (falls erforderlich). |  | DBA, Migrationsingenieur, App-Besitzer | 
| Führen Sie die Funktions- und Nichtfunktionstests sowie die Datenvalidierungs-, SLA- und Leistungstests durch. |  | Testleiter, App-Besitzer, App-Nutzer | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Lassen Sie sich vom Inhaber der Anwendung oder dem Geschäftsinhaber genehmigen. |  | Übernahme (Leitung) | 
| Stellen Sie die Anwendungsclients auf die neue Infrastruktur um. |  | DBA, Migrationsingenieur, App-Besitzer | 

### Schließen Sie das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie temporäre AWS-Ressourcen herunter. |  | DBA, Migrationsingenieur, SysAdmin | 
| Überprüfen und validieren Sie die Projektdokumente. |  | Leiter der Migration | 
| Erfassen Sie Kennzahlen wie die Zeit bis zur Migration, den Prozentsatz manueller Aufgaben im Vergleich zu automatisierten Aufgaben und Kosteneinsparungen. |  | Leiter der Migration | 
| Schließe das Projekt ab und gib Feedback. |  | Leiter der Migration, Inhaber der App | 

## Zugehörige Ressourcen
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-resources"></a>

**Referenzen**
+ [Dokumentation zu Apache Tomcat 10.0](https://tomcat.apache.org/tomcat-10.0-doc/index.html)
+ [Apache Tomcat 9.0-Dokumentation](https://tomcat.apache.org/tomcat-9.0-doc/index.html)
+ [Apache Tomcat 8.0-Dokumentation](https://tomcat.apache.org/tomcat-8.0-doc)
+ [Installationsanleitung für Apache Tomcat 8.0](https://tomcat.apache.org/tomcat-8.0-doc/setup.html)
+ [Apache Tomcat JNDI-Dokumentation](https://tomcat.apache.org/tomcat-8.0-doc/jndi-datasource-examples-howto.html)
+ [Website von Amazon RDS for Oracle](https://aws.amazon.com/rds/oracle/) 
+ [Amazon-RDS-Preise](https://aws.amazon.com/rds/pricing/) 
+ [Oracle und Amazon Web Services](https://aws.amazon.com/oracle/) 
+ [Oracle auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html) 
+ [Amazon RDS Multi-AZ-Bereitstellungen](https://aws.amazon.com/rds/details/multi-az/) 

**Tutorials und Videos**
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/) 

## Zusätzliche Informationen
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-additional"></a>

**Migrieren von Datenbankobjekten und Daten**

Wenn Sie beispielsweise native backup/restore Oracle-Dienstprogramme verwenden:

1. Erstellen Sie das Amazon Simple Storage Service (Amazon S3) -Backup für Datenbank-Backup-Dateien (optional).

1. Sichern Sie die Oracle-DB-Daten im gemeinsam genutzten Netzwerkordner.

1. Melden Sie sich beim Migration-Staging-Server an, um den Netzwerkfreigabeordner zuzuordnen.

1. Kopieren Sie Daten aus dem Netzwerkfreigabeordner in den S3-Bucket.

1. Fordern Sie eine Amazon RDS Multi-AZ-Bereitstellung für Oracle an.

1. Stellen Sie die lokale Datenbanksicherung auf Amazon RDS for Oracle wieder her.

**Einrichtung der Anwendungsebene**

1. Installieren Sie Tomcat 8 (oder 9/10) von der Apache Tomcat-Website.

1. Package Sie die Anwendung und die gemeinsam genutzten Bibliotheken in eine WAR-Datei.

1. Stellen Sie die WAR-Datei in Tomcat bereit.

1. Überwachen Sie das Startprotokoll `Linux cat` aller fehlenden gemeinsam genutzten Bibliotheken von WebSphere.

1. Sehen Sie sich den Startdatensatz `Linux cat` aller WebSphere -spezifischen Deployment-Deskriptor-Erweiterungen an.

1. Sammeln Sie alle fehlenden abhängigen Java-Bibliotheken vom WebSphere Server.

1. Ändern Sie WebSphere spezifische Deployment-Deskriptorelemente durch Tomcat-kompatible Äquivalente.

1. Erstellen Sie die WAR-Datei mit den abhängigen Java-Bibliotheken und den aktualisierten Deployment-Deskriptoren neu.

1. Aktualisieren Sie die LDAP-Konfiguration, die Datenbankkonfiguration und testen Sie die Verbindungen (siehe [Realm Configuration HOW-TO und [JNDI Datasource](https://tomcat.apache.org/tomcat-8.0-doc/jndi-datasource-examples-howto.html) HOW-TO in der Apache](https://tomcat.apache.org/tomcat-8.0-doc/realm-howto.html) Tomcat-Dokumentation).

1. Testen Sie die installierte Anwendung anhand der wiederhergestellten Amazon RDS for Oracle Oracle-Datenbank.

1. Erstellen Sie aus der EC2 Instance ein Amazon Machine Image (AMI) für Linux.

1. Starten Sie die fertige Architektur mit der Application Load Balancer- und Auto Scaling Scaling-Gruppe.

1. Aktualisieren Sie den URLs (mithilfe der WebSeal-Verbindung) so, dass er auf den Application Load Balancer verweist.

1. Aktualisieren Sie die Configuration Management Database (CMDB). 

# Migrieren Sie EC2 mit Auto Scaling von IBM WebSphere Application Server zu Apache Tomcat auf Amazon
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-with-auto-scaling"></a>

*Kevin Yung und Afroz Khan, Amazon Web Services*

## Zusammenfassung
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-with-auto-scaling-summary"></a>

Dieses Muster bietet Anleitungen für die Migration einer Java-Anwendung von IBM WebSphere Application Server zu Apache Tomcat auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance mit aktiviertem Amazon EC2 Auto Scaling. 

Mit diesem Muster können Sie Folgendes erreichen:
+ Eine Senkung der IBM-Lizenzkosten
+ Hohe Verfügbarkeit durch Multi-AZ-Bereitstellung
+ Verbesserte Anwendungsausfallsicherheit mit Amazon EC2 Auto Scaling

## Voraussetzungen und Einschränkungen
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-with-auto-scaling-prerequisites-and-limitations"></a>

**Voraussetzungen**
+ Java-Anwendungen (Version 7). *x* oder 8. *x*) sollte in LAMP-Stacks entwickelt werden.
+ Der Zielstatus besteht darin, Java-Anwendungen auf Linux-Hosts zu hosten. Dieses Muster wurde erfolgreich in einer Red Hat Enterprise Linux (RHEL) 7-Umgebung implementiert. Andere Linux-Distributionen können diesem Muster folgen, es sollte jedoch auf die Konfiguration der Apache Tomcat-Distribution verwiesen werden.
+ Sie sollten die Abhängigkeiten der Java-Anwendung verstehen.
+ Sie müssen Zugriff auf den Quellcode der Java-Anwendung haben, um Änderungen vornehmen zu können. 

**Einschränkungen und Änderungen an der Platformierung**
+ Sie sollten die Komponenten des Unternehmensarchivs (EAR) verstehen und sicherstellen, dass alle Bibliotheken in den WAR-Dateien der Webkomponente enthalten sind. Sie müssen das [Apache Maven WAR-Plugin konfigurieren und WAR-Dateiartefakte](https://maven.apache.org/plugins/maven-war-plugin/) erzeugen.
+ Bei der Verwendung von Apache Tomcat 8 besteht ein bekannter Konflikt zwischen servlet-api.jar und den in das Anwendungspaket integrierten JAR-Dateien. Um dieses Problem zu beheben, löschen Sie servlet-api.jar aus dem Anwendungspaket.
+ [Sie müssen WEB-INF/Resources konfigurieren, das sich im *Klassenpfad der Apache* Tomcat-Konfiguration befindet.](https://tomcat.apache.org/tomcat-8.0-doc/class-loader-howto.html) Standardmäßig werden die JAR-Bibliotheken nicht in das Verzeichnis geladen. Alternativ können Sie alle Ressourcen unter bereitstellen src/main/resources*.*
+ Suchen Sie in der Java-Anwendung nach fest codierten Kontextwurzeln und aktualisieren Sie das neue [Kontextstammverzeichnis von Apache Tomcat](https://tomcat.apache.org/tomcat-8.0-doc/config/context.html#Defining_a_context).
+ **Um die JVM-Laufzeitoptionen festzulegen, können Sie die Konfigurationsdatei setenv.sh im bin-Ordner von Apache Tomcat erstellen, z. B. JAVA\$1OPTS, JAVA\$1HOME usw.**  
+ Die Authentifizierung wird auf Containerebene konfiguriert und in Apache Tomcat-Konfigurationen als Realm eingerichtet. Die Authentifizierung wird für einen der folgenden drei Bereiche eingerichtet: 
  + [JDBC Database Realm](https://tomcat.apache.org/tomcat-8.0-doc/config/realm.html#JDBC_Database_Realm_-_org.apache.catalina.realm.JDBCRealm) sucht nach Benutzern in einer relationalen Datenbank, auf die der JDBC-Treiber zugreift.
  + [DataSource Database Realm](https://tomcat.apache.org/tomcat-8.0-doc/config/realm.html#DataSource_Database_Realm_-_org.apache.catalina.realm.DataSourceRealm) sucht nach Benutzern in einer Datenbank, auf die JNDI zugreift. 
  + [JNDI Directory Realm](https://tomcat.apache.org/tomcat-8.0-doc/config/realm.html#JNDI_Directory_Realm_-_org.apache.catalina.realm.JNDIRealm) sucht nach Benutzern im LDAP-Verzeichnis (Lightweight Directory Access Protocol), auf das der JNDI-Anbieter zugreift. Für die Suchvorgänge ist Folgendes erforderlich: 
    + LDAP-Verbindungsdetails: Benutzersuchbasis, Suchfilter, Rollenbasis, Rollenfilter 
    + Der wichtige JNDI-Verzeichnisbereich: Stellt eine Verbindung zu LDAP her, authentifiziert Benutzer und ruft alle Gruppen ab, in denen ein Benutzer Mitglied ist
+ Autorisierung: Im Fall eines Containers mit einer rollenbasierten Autorisierung, die die Autorisierungseinschränkungen in web.xml überprüft, müssen Webressourcen definiert und mit den in den Einschränkungen definierten Rollen verglichen werden. Wenn LDAP nicht über eine Gruppenrollen-Zuordnung verfügt, müssen Sie das Attribut < security-role-ref > in web.xml festlegen, um eine Gruppenrollen-Zuordnung zu erreichen. [Ein Beispiel für ein Konfigurationsdokument finden Sie in der Oracle-Dokumentation.](https://docs.oracle.com/cd/E19226-01/820-7627/bncav/index.html) 
+ Datenbankverbindung: Erstellen Sie eine Ressourcendefinition in Apache Tomcat mit einer Amazon Relational Database Service (Amazon RDS) -Endpunkt-URL und Verbindungsdetails. Aktualisieren Sie den Anwendungscode mithilfe der JNDI-Suche so, dass er auf a DataSource verweist. Eine in definierte bestehende DB-Verbindung WebSphere würde nicht funktionieren, da sie die WebSphere JNDI-Namen verwendet. Sie können <resource-ref>in web.xml einen Eintrag mit dem JNDI-Namen und der DataSource Typdefinition hinzufügen. Ein Beispiel für ein Konfigurationsdokument finden Sie in der [Apache Tomcat-Dokumentation](https://tomcat.apache.org/tomcat-8.0-doc/jndi-resources-howto.html#JDBC_Data_Sources).
+ Protokollierung: Standardmäßig protokolliert Apache Tomcat in der Konsole oder in einer Protokolldatei. [Sie können die Ablaufverfolgung auf Realmebene aktivieren, indem Sie *logging.properties aktualisieren (siehe Logging* in Tomcat).](https://tomcat.apache.org/tomcat-8.0-doc/logging.html) *Wenn Sie Apache Log4j verwenden, um Logs an eine Datei anzuhängen, müssen Sie tomcat-juli herunterladen und dem Klassenpfad hinzufügen.*
+ Sitzungsmanagement: Wenn Sie IBM WebSEAL für den Lastenausgleich von Anwendungen und das Sitzungsmanagement beibehalten, sind keine Änderungen erforderlich. [Wenn Sie einen Application Load Balancer oder Network Load Balancer auf AWS verwenden, um die IBM WebSeal-Komponente zu ersetzen, müssen Sie das Sitzungsmanagement mithilfe einer ElastiCache Amazon-Instance mit einem Memcache-Cluster einrichten und Apache Tomcat für die Verwendung von Open-Source-Sitzungsmanagement einrichten.](https://github.com/magro/memcached-session-manager) 
+ Wenn Sie den IBM WebSeal Forward Proxy verwenden, müssen Sie einen neuen Network Load Balancer auf AWS einrichten. Verwenden Sie die vom Network Load Balancer für WebSeal-Verbindungskonfigurationen IPs bereitgestellten.
+ SSL-Konfiguration: Wir empfehlen, Secure Sockets Layer (SSL) für end-to-end die Kommunikation zu verwenden. Folgen Sie den Anweisungen in der Apache Tomcat-Dokumentation, um eine SSL-Serverkonfiguration in [Apache Tomcat](https://tomcat.apache.org/tomcat-8.0-doc/ssl-howto.html) einzurichten. 

## Architektur
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-with-auto-scaling-architecture"></a>

**Quelltechnologie-Stack**
+ IBM WebSphere Anwendungsserver

 

**Zieltechnologie-Stack**
+ Die Architektur verwendet [Elastic Load Balancing (Version 2](https://docs.aws.amazon.com/elasticloadbalancing/)). Wenn Sie IBM WebSeal für Identify Management und Load Balancing verwenden, können Sie einen Network Load Balancer auf AWS auswählen, der in den IBM WebSeal Reverse-Proxy integriert werden soll.
+ Java-Anwendungen werden auf einem Apache Tomcat-Anwendungsserver bereitgestellt, der auf einer EC2 Instance in einer [Amazon EC2 Auto Scaling Scaling-Gruppe](https://docs.aws.amazon.com/autoscaling/ec2/userguide/AutoScalingGroup.html) ausgeführt wird. Sie können eine [Skalierungsrichtlinie](https://docs.aws.amazon.com/autoscaling/ec2/userguide/scaling_plan.html) einrichten, die auf CloudWatch Amazon-Metriken wie der CPU-Auslastung basiert. 
+ Wenn Sie die Verwendung von IBM WebSeal für den Lastenausgleich einstellen, können Sie [Amazon ElastiCache for Memcached für die Sitzungsverwaltung](https://docs.aws.amazon.com/AmazonElastiCache/latest/mem-ug/WhatIs.html) verwenden.
+ Für die Back-End-Datenbank können Sie [High Availability (Multi-AZ) für Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Concepts.MultiAZ.html) bereitstellen und einen Datenbank-Engine-Typ auswählen.

 

**Zielarchitektur**

![\[AWS Cloud architecture with VPC, two availability zones, load balancer, and database components.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/52b91dab-7b3b-4751-abe2-25e7c7cd8d89/images/25125023-9a81-452a-9ada-184e2416cc02.png)


## Tools
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-with-auto-scaling-tools"></a>
+ [AWS CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html)
+ [AWS-Befehlszeilenschnittstelle (AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-welcome.html)
+ Apache Tomcat (Version 7). *x* oder 8. *x*)
+ RHEL 7 oder Centos 7
+ [Bereitstellung von Amazon RDS Multi-AZ](https://aws.amazon.com/rds/details/multi-az/)
+ [Amazon ElastiCache für Memcached (optional](https://docs.aws.amazon.com/AmazonElastiCache/latest/mem-ug/WhatIs.html))

## Epen
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-with-auto-scaling-epics"></a>

### VPC einrichten
<a name="set-up-the-vpc"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer Virtual Private Cloud (VPC). |  |  | 
| Erstellen Sie Subnetze. |  |  | 
| Erstellen Sie bei Bedarf Routing-Tabellen. |  |  | 
| Erstellen Sie Listen zur Netzwerkzugriffskontrolle (ACLs). |  |  | 
| Richten Sie AWS Direct Connect oder eine Unternehmens-VPN-Verbindung ein. |  |  | 

### Führen Sie die Anwendung auf eine neue Plattform
<a name="replatform-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Refaktorieren Sie die Maven-Konfiguration des Anwendungsbuilds, um die WAR-Artefakte zu generieren. |  |  | 
| Refaktorieren Sie die Datenquellen für Anwendungsabhängigkeiten in Apache Tomcat. |  |  | 
| Refaktorieren Sie die Anwendungsquellcodes so, dass sie JNDI-Namen in Apache Tomcat verwenden. |  |  | 
| Stellen Sie die WAR-Artefakte in Apache Tomcat bereit. |  |  | 
| Vollständige Anwendungsvalidierungen und Tests. |  |  | 

### Konfigurieren Sie das Netzwerk
<a name="configure-the-network"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie die Unternehmensfirewall so, dass die Verbindung zu den Abhängigkeitsdiensten hergestellt werden kann. |  |  | 
| Konfigurieren Sie die Unternehmensfirewall so, dass Endbenutzer auf Elastic Load Balancing auf AWS zugreifen können. |  |  | 

### Erstellen Sie die Anwendungsinfrastruktur
<a name="create-the-application-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Anwendung und stellen Sie sie auf einer EC2 Instanz bereit. |  |  | 
| Erstellen Sie einen Amazon ElastiCache for Memcached-Cluster für die Sitzungsverwaltung. |  |  | 
| Erstellen Sie eine Amazon RDS Multi-AZ-Instance für die Backend-Datenbank. |  |  | 
| Erstellen Sie SSL-Zertifikate und importieren Sie sie in AWS Certificate Manager (ACM). |  |  | 
| Installieren Sie SSL-Zertifikate auf Load Balancern. |  |  | 
| Installieren Sie SSL-Zertifikate für Apache Tomcat-Server. |  |  | 
| Führen Sie die Validierungen und Tests der Anwendungen durch. |  |  | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie die bestehende Infrastruktur herunter. |  |  | 
| Stellen Sie die Datenbank aus der Produktion in Amazon RDS wieder her. |  |  | 
| Überarbeiten Sie die Anwendung, indem Sie DNS-Änderungen vornehmen. |  |  | 

## Zugehörige Ressourcen
<a name="migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-with-auto-scaling-related-resources"></a>

**Referenzen**
+ [Dokumentation zu Apache Tomcat 7.0](https://tomcat.apache.org/tomcat-7.0-doc/realm-howto.html)
+ [Installationsanleitung für Apache Tomcat 7.0](https://tomcat.apache.org/tomcat-7.0-doc/appdev/installation.html)
+ [Apache Tomcat JNDI-Dokumentation](https://tomcat.apache.org/tomcat-7.0-doc/jndi-datasource-examples-howto.html)
+ [Amazon RDS Multi-AZ-Bereitstellungen](https://aws.amazon.com/rds/details/multi-az/)
+ [Amazon ElastiCache für Memcached](https://docs.aws.amazon.com/AmazonElastiCache/latest/mem-ug/WhatIs.html)

**Tutorials und Videos**
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)

# Migrieren Sie eine.NET-Anwendung von Microsoft Azure App Service zu AWS Elastic Beanstalk
<a name="migrate-a-net-application-from-microsoft-azure-app-service-to-aws-elastic-beanstalk"></a>

*Raghavender Madamshitti, Amazon Web Services*

## Zusammenfassung
<a name="migrate-a-net-application-from-microsoft-azure-app-service-to-aws-elastic-beanstalk-summary"></a>

Dieses Muster beschreibt, wie eine auf Microsoft Azure App Service gehostete .NET-Webanwendung zu AWS Elastic Beanstalk migriert wird. Es gibt zwei Möglichkeiten, Anwendungen zu Elastic Beanstalk zu migrieren:
+ Verwenden Sie AWS Toolkit for Visual Studio — Dieses Plugin für die Microsoft Visual Studio IDE bietet die einfachste und unkomplizierteste Möglichkeit, benutzerdefinierte.NET-Anwendungen in AWS bereitzustellen. Sie können diesen Ansatz verwenden, um .NET-Code direkt in AWS bereitzustellen und unterstützende Ressourcen wie Amazon Relational Database Service (Amazon RDS) für SQL Server-Datenbanken direkt aus Visual Studio zu erstellen.
+ Upload und Bereitstellung auf Elastic Beanstalk — Jeder Azure App Service umfasst einen Hintergrunddienst namens Kudu, der für die Erfassung von Speicherabbildern und Bereitstellungsprotokollen, die Anzeige von Konfigurationsparametern und den Zugriff auf Bereitstellungspakete nützlich ist. Sie können die Kudu-Konsole verwenden, um auf Azure App Service-Inhalte zuzugreifen, das Bereitstellungspaket zu extrahieren und das Paket dann mithilfe der Upload- und Bereitstellungsoption in der Elastic Beanstalk-Konsole auf Elastic Beanstalk hochzuladen.

Dieses Muster beschreibt den zweiten Ansatz (Hochladen Ihrer Anwendung auf Elastic Beanstalk über Kudu). Das Muster verwendet auch die folgenden AWS-Services: AWS Elastic Beanstalk, Amazon Virtual Private Cloud (Amazon VPC), Amazon CloudWatch, Amazon Elastic Compute Cloud (Amazon EC2) Auto Scaling, Amazon Simple Storage Service (Amazon S3) und Amazon Route 53 

Die.NET-Webanwendung wird auf AWS Elastic Beanstalk bereitgestellt, das in einer Amazon EC2 Auto Scaling Scaling-Gruppe ausgeführt wird. Sie können eine Skalierungsrichtlinie einrichten, die auf CloudWatch Amazon-Metriken wie der CPU-Auslastung basiert. Für eine Datenbank können Sie je nach Anwendung und Geschäftsanforderungen Amazon RDS in einer Multi-AZ-Umgebung oder Amazon DynamoDB verwenden. 

## Voraussetzungen und Einschränkungen
<a name="migrate-a-net-application-from-microsoft-azure-app-service-to-aws-elastic-beanstalk-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine .NET-Webanwendung, die in Azure App Service ausgeführt wird
+ Erlaubnis zur Verwendung der Azure App Service Kudu-Konsole

**Produktversionen**
+ .NET Core (x64) 1.0.1, 2.0.0 oder höher oder.NET Framework 4.x, 3.5 (siehe Plattformhistorie [von.NET auf Windows Server](https://docs.aws.amazon.com/elasticbeanstalk/latest/platforms/platform-history-dotnet.html))
+ Internetinformationsdienste (IIS) Version 8.0 oder höher, ausgeführt auf Windows Server 2012 oder höher
+ .NET 2.0 oder 4.0 Runtime.

## Architektur
<a name="migrate-a-net-application-from-microsoft-azure-app-service-to-aws-elastic-beanstalk-architecture"></a>

**Quelltechnologie-Stack**
+  Anwendung, die mit.NET Framework 3.5 oder höher oder .NET Core 1.0.1, 2.0.0 oder höher entwickelt und auf Azure App Service (Web-App oder API-App) gehostet wird

**Zieltechnologie-Stack**
+ AWS Elastic Beanstalk wird in einer Amazon EC2 Auto Scaling Scaling-Gruppe ausgeführt

**Migrationsarchitektur**

![\[Kudu greift auf Azure App Service-Inhalte zu, ruft das Bereitstellungspaket ab und lädt es auf Elastic Beanstalk hoch.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/df606a2d-b0a8-4035-b377-0a760e7300c9/images/dd15f97b-9cf2-4bcc-af45-44df1c4ca4a5.png)


 

**Arbeitsablauf bei der Bereitstellung**

![\[Bereitstellungs-Workflow zum Erstellen einer App, deren Veröffentlichung in der Startumgebung und anschließender Verwaltung der Umgebung.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/df606a2d-b0a8-4035-b377-0a760e7300c9/images/accec77d-c753-4166-8f27-bd4932b3d884.png)


## Tools
<a name="migrate-a-net-application-from-microsoft-azure-app-service-to-aws-elastic-beanstalk-tools"></a>

**Tools**
+ .NET Core oder.NET Framework
+ C\$1
+ IIS
+ Kudu-Konsole

**AWS-Services und -Funktionen**
+ [AWS Elastic Beanstalk](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/Welcome.html) — Elastic Beanstalk ist ein easy-to-use Service für die Bereitstellung und Skalierung von.NET-Webanwendungen. Elastic Beanstalk verwaltet automatisch die Kapazitätsbereitstellung, den Lastenausgleich und die auto Skalierung.
+ [Amazon EC2 Auto Scaling Scaling-Gruppe](https://docs.aws.amazon.com/autoscaling/ec2/userguide/AutoScalingGroup.html) — Elastic Beanstalk umfasst eine Auto Scaling Scaling-Gruppe, die die EC2 Amazon-Instances in der Umgebung verwaltet. In einer Umgebung mit nur einer Instance stellt die Auto Scaling-Gruppe sicher, dass immer eine Instance ausgeführt wird. In einer Umgebung mit Lastenausgleich können Sie die Gruppe mit einer Reihe von Instances konfigurieren, die ausgeführt werden sollen, und Amazon EC2 Auto Scaling fügt Instances je nach Bedarf hinzu oder entfernt sie, je nach Auslastung.
+ [Elastic Load Balancing](https://docs.aws.amazon.com/elasticloadbalancing/latest/userguide/what-is-load-balancing.html) — Wenn Sie Load Balancing in AWS Elastic Beanstalk aktivieren, wird ein Load Balancer erstellt, der den Traffic auf die EC2 Instances in der Umgebung verteilt.
+ [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) — Elastic Beanstalk verwendet Amazon automatisch CloudWatch , um Informationen über Ihre Anwendungs- und Umgebungsressourcen bereitzustellen. Amazon CloudWatch unterstützt Standardmetriken, benutzerdefinierte Metriken und Alarme.
+ [Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/Welcome.html) — Amazon Route 53 ist ein hochverfügbarer und skalierbarer Cloud-Webservice für das Domain Name System (DNS). Sie können Route 53-Aliaseinträge verwenden, um benutzerdefinierte Domainnamen AWS Elastic Beanstalk-Umgebungen zuzuordnen.

## Epen
<a name="migrate-a-net-application-from-microsoft-azure-app-service-to-aws-elastic-beanstalk-epics"></a>

### Einrichten einer VPC
<a name="set-up-a-vpc"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie eine virtuelle private Cloud (VPC) ein. | Erstellen Sie in Ihrem AWS-Konto eine VPC mit den erforderlichen Informationen. | Systemadministrator | 
| Erstellen Sie Subnetze. | Erstellen Sie zwei oder mehr Subnetze in Ihrer VPC. | Systemadministrator | 
| Erstellen Sie eine Routing-Tabelle. | Erstellen Sie eine Routentabelle, die Ihren Anforderungen entspricht. | Systemadministrator | 

### Elastic Beanstalk einrichten
<a name="set-up-elastic-beanstalk"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Greifen Sie auf die Azure App Service Kudu-Konsole zu. | **Greifen Sie über das Azure-Portal auf Kudu zu, indem Sie zum App Service-Dashboard navigieren und dann **Advanced Tools, Go** auswählen.** Oder Sie können die Azure App Service-URL wie folgt ändern:. `https://<appservicename>.scm.azurewebsites.net` | App-Entwickler, Systemadministrator | 
| Laden Sie das Bereitstellungspaket von Kudu herunter. | Navigieren Sie zu Windows, PowerShell indem Sie die **DebugConsole**Option auswählen. Dadurch wird die Kudo-Konsole geöffnet. Gehe zum `wwwroot` Ordner und lade ihn herunter. Dadurch wird das Azure App Service-Bereitstellungspaket als ZIP-Datei heruntergeladen. Ein Beispiel finden Sie im Anhang. | App-Entwickler, Systemadministrator | 
| Erstellen Sie ein Paket für Elastic Beanstalk. | Entpacken Sie das Bereitstellungspaket, das Sie von Azure App Service heruntergeladen haben. Erstellen Sie eine JSON-Datei mit dem Namen `aws-windows-deployment-manifest.json` (diese Datei ist nur für.NET Core-Anwendungen erforderlich). Erstellen Sie eine ZIP-Datei, die die Azure App Service-Bereitstellungspaketdatei enthält`aws-windows-deployment-manifest.json`. Ein Beispiel finden Sie im Anhang. | App-Entwickler, Systemadministrator | 
| Erstellen Sie eine neue Elastic Beanstalk Beanstalk-Anwendung. | In der Elastic-Beanstalk-Konsole öffnen. Wählen Sie eine bestehende Anwendung oder erstellen Sie eine neue Anwendung. | App-Entwickler, Systemadministrator | 
| Erstellen Sie die Umgebung. | Wählen Sie im **Aktionsmenü** der Elastic Beanstalk Beanstalk-Konsole die Option Umgebung **erstellen** aus. Wählen Sie die Webserver-Umgebung und die .NET/IIS-Plattform aus. Wählen Sie für Anwendungscode **Upload** aus. Laden Sie die ZIP-Datei hoch, die Sie für Elastic Beanstalk vorbereitet haben, und wählen Sie dann **Create** Environment. | App-Entwickler, Systemadministrator | 
| Konfigurieren Sie Amazon CloudWatch. | Standardmäßig ist die grundlegende CloudWatch Überwachung aktiviert. **Wenn Sie die Konfiguration ändern möchten, wählen Sie im Elastic Beanstalk-Assistenten die veröffentlichte Anwendung und dann Monitoring aus.** | Systemadministrator | 
| Stellen Sie sicher, dass sich das Bereitstellungspaket in Amazon S3 befindet.  | Wenn die Anwendungsumgebung erstellt wurde, finden Sie das Bereitstellungspaket im S3-Bucket. | App-Entwickler, Systemadministrator | 
| Testen Sie die Anwendung. | Wenn die Umgebung erstellt wurde, verwenden Sie die in der Elastic Beanstalk Beanstalk-Konsole angegebene URL, um die Anwendung zu testen. | Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-a-net-application-from-microsoft-azure-app-service-to-aws-elastic-beanstalk-resources"></a>
+ [Konzepte von AWS Elastic Beanstack](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/concepts.html) (Elastic Beanstalk Beanstalk-Dokumentation)
+ [Erste Schritte mit.NET auf Elastic Beanstalk (Elastic Beanstalk](https://docs.aws.amazon.com/elasticbeanstalk/latest/dg/dotnet-getstarted.html) Beanstalk-Dokumentation)
+ [Kudu-Konsole ()](https://github.com/projectkudu/kudu/wiki/Kudu-console) GitHub
+ [Verwendung von „Kudu“ zur Verwaltung von Azure Web Apps](https://www.gslab.com/blogs/kudu-azure-web-app/) (GS Lab-Artikel)
+ [Benutzerdefinierte ASP.NET Core Elastic Beanstalk Beanstalk-Bereitstellungen](https://docs.aws.amazon.com/toolkit-for-visual-studio/latest/user-guide/deployment-beanstalk-custom-netcore.html) (AWS Toolkit for Visual Studio Studio-Benutzerhandbuch)
+ [Dokumentation zu Elastic Load Balancing](https://docs.aws.amazon.com/elasticloadbalancing/latest/userguide/what-is-load-balancing.html)
+ [Von AWS Elastic Beanstalk unterstützte Plattformen](https://docs.amazonaws.cn/en_us/elasticbeanstalk/latest/platforms/platforms-supported.html) (Elastic Beanstalk Beanstalk-Dokumentation)
+ [Bereitstellen einer Webanwendung in AWS](https://www.c-sharpcorner.com/article/deploying-a-web-application-to-aws/) (C\$1 Corner-Artikel)
+ [Skalierung der Größe Ihrer Auto Scaling Scaling-Gruppe](https://docs.aws.amazon.com/autoscaling/ec2/userguide/scaling_plan.html) ( EC2 Amazon-Dokumentation)
+ [Hochverfügbarkeit (Multi-AZ) für Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Concepts.MultiAZ.html) (Amazon RDS-Dokumentation)

## Zusätzliche Informationen
<a name="migrate-a-net-application-from-microsoft-azure-app-service-to-aws-elastic-beanstalk-additional"></a>

**Hinweise**
+ Wenn Sie eine lokale Datenbank oder eine Azure SQL Server-Datenbank zu Amazon RDS migrieren, müssen Sie auch die Datenbankverbindungsdetails aktualisieren. 
+ Zu Testzwecken ist eine Beispiel-Demoanwendung beigefügt.

## Anlagen
<a name="attachments-df606a2d-b0a8-4035-b377-0a760e7300c9"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/df606a2d-b0a8-4035-b377-0a760e7300c9/attachments/attachment.zip)

# Migrieren Sie von Oracle WebLogic zu Apache Tomcat (ToMEE) auf Amazon ECS
<a name="migrate-from-oracle-weblogic-to-apache-tomcat-tomee-on-amazon-ecs"></a>

*Anya Epishcheva und Harshad Gohil, Amazon Web Services*

## Zusammenfassung
<a name="migrate-from-oracle-weblogic-to-apache-tomcat-tomee-on-amazon-ecs-summary"></a>

In diesem Muster werden die Schritte für die Migration eines lokalen Oracle Solaris SPARC-Systems, auf dem Oracle ausgeführt wird, WebLogic zu einer Docker-Container-basierten Installation beschrieben, auf der [Apache TomEE (Apache Tomcat](http://tomee.apache.org/) mit zusätzlicher Container-Unterstützung) mit Amazon Elastic Container Service (Amazon ECS) ausgeführt wird. 

Informationen zur Migration von Datenbanken, die mit den Anwendungen verknüpft sind, die Sie von Oracle WebLogic zu Tomcat migrieren, finden Sie in den Datenbankmigrationsmustern in diesem Katalog. 

**Best Practices**

Die Schritte für die Migration von Java- und Java Enterprise Edition (Java EE) -Webanwendungen variieren je nach der Anzahl der containerspezifischen Ressourcen, die von der Anwendung verwendet werden. Spring-basierte Anwendungen sind in der Regel einfacher zu migrieren, da sie nur eine geringe Anzahl von Abhängigkeiten vom Bereitstellungscontainer aufweisen. Im Gegensatz dazu erfordern Java EE-Anwendungen, die Enterprise JavaBeans (EJBs) und verwaltete Container-Ressourcen wie Thread-Pools, Java Authentication and Authorization Service (JAAS) und Container-Managed Persistence (CMP) verwenden, mehr Aufwand. 

Anwendungen, die für Oracle Application Server entwickelt wurden, verwenden häufig die Oracle Identity Management Suite. Kunden, die auf Open-Source-Anwendungsserver migrieren, entscheiden sich häufig dafür, Identitäts- und Zugriffsmanagement mithilfe eines SAML-basierten Verbunds neu zu implementieren. Andere verwenden Oracle HTTP Server Webgate für Fälle, in denen eine Migration von der Oracle Identity Management Suite keine Option ist. 

Java- und Java EE-Webanwendungen eignen sich hervorragend für die Bereitstellung auf Docker-basierten AWS-Services wie AWS Fargate und Amazon ECS. Kunden entscheiden sich häufig für ein Docker-Image, auf dem die neueste Version des Zielanwendungsservers (z. B. TomEE) und das Java Development Kit (JDK) vorinstalliert sind. Sie installieren ihre Anwendungen auf dem Basis-Decker-Image, veröffentlichen es in ihrer Amazon Elastic Container Registry (Amazon ECR) -Registrierung und verwenden es für die skalierbare Bereitstellung ihrer Anwendungen auf AWS Fargate oder Amazon ECS. 

Im Idealfall ist die Anwendungsbereitstellung elastisch, d. h. die Anzahl der Anwendungsinstanzen skaliert je nach Traffic oder Arbeitslast nach oben oder unten. Das bedeutet, dass Anwendungsinstanzen online gehen oder beendet werden müssen, um die Kapazität an den Bedarf anzupassen. 

Wenn Sie eine Java-Anwendung nach AWS verschieben, sollten Sie erwägen, sie zustandslos zu machen. Dies ist ein zentrales Architekturprinzip des AWS Well-Architected Framework, das eine horizontale Skalierung mithilfe von Containerisierung ermöglicht. Beispielsweise speichern die meisten Java-basierten Webanwendungen Benutzersitzungsinformationen lokal. Um die Beendigung der Anwendungsinstanz aufgrund der automatischen Skalierung in Amazon Elastic Compute Cloud (Amazon EC2) oder aus anderen Gründen zu überstehen, sollten Benutzersitzungsinformationen global gespeichert werden, sodass Benutzer von Webanwendungen weiterhin nahtlos und transparent arbeiten können, ohne sich erneut mit einer Webanwendung verbinden oder erneut anmelden zu müssen. Für diesen Ansatz gibt es mehrere Architekturoptionen, darunter Amazon ElastiCache for Redis oder das Speichern des Sitzungsstatus in einer globalen Datenbank. Anwendungsserver wie TomEE verfügen über Plug-ins, die die Speicherung und Verwaltung von Sitzungen über Redis, Datenbanken und andere globale Datenspeicher ermöglichen.

Verwenden Sie ein gemeinsames, zentralisiertes Protokollierungs- und Debugging-Tool, das sich leicht in Amazon CloudWatch und AWS X-Ray integrieren lässt. Die Migration bietet die Möglichkeit, die Funktionen des Anwendungslebenszyklus zu verbessern. Möglicherweise möchten Sie den Erstellungsprozess automatisieren, sodass Änderungen mithilfe einer CI/CD-Pipeline (Continuous Integration and Continuous Delivery) problemlos vorgenommen werden können. Dies kann Änderungen an der Anwendung erfordern, sodass sie ohne Ausfallzeiten bereitgestellt werden kann. 

## Voraussetzungen und Einschränkungen
<a name="migrate-from-oracle-weblogic-to-apache-tomcat-tomee-on-amazon-ecs-prerequisites-and-limitations"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto 
+ Java-Quellcode und JDK 
+ Mit Oracle erstellte Quellanwendung WebLogic
+ Definierte Lösung für Identitäts- und Zugriffsmanagement (SAML oder Oracle Webgate)
+ Definierte Lösung für die Verwaltung von Anwendungssitzungen (Umzug like-for-like oder mit Amazon oder Zustandslosigkeit der Anwendung ElastiCache, falls erforderlich)
+ Erläuterung, ob das Team J2EE-spezifische Bibliotheken umgestalten muss, um die Portabilität auf Apache ToMEE zu gewährleisten (siehe Status der Implementierung von [Java EE 7](http://tomee.apache.org/javaee7-status.html) auf der Apache-Website) 
+ Gehärtetes ToMEE-Image auf der Grundlage Ihrer Sicherheitsanforderungen
+ Container-Image mit vorinstalliertem Ziel-TomEE 
+ Vereinbarte und bei Bedarf durchgeführte Anwendungskorrektur (z. B. Protokollierung, Debug-Erstellung, Authentifizierung)

**Versionen der Produkte**
+ Oracle WebLogic OC4 J, 9i, 10 g 
+ Tomcat 7 (mit Java 1.6 oder höher) 

## Architektur
<a name="migrate-from-oracle-weblogic-to-apache-tomcat-tomee-on-amazon-ecs-architecture"></a>

 **Quelltechnologie-Stack**
+ Mit Oracle erstellte Webanwendung WebLogic
+ Webanwendung, die Oracle Webgate oder SAML-Authentifizierung verwendet
+ Webanwendungen, die mit Oracle Database Version 10g und höher verbunden sind 

**Zieltechnologie-Stack**
+ ToMee (Apache Tomcat mit zusätzlicher Container-Unterstützung) läuft auf Amazon ECS (siehe auch [Bereitstellen von Java-Webanwendungen und Java-Microservices](https://aws.amazon.com/answers/web-applications/aws-web-app-deployment-java/) [auf](https://aws.amazon.com/blogs/compute/deploying-java-microservices-on-amazon-ec2-container-service/) Amazon ECS) 
+ Amazon Relational Database Service (Amazon RDS) für Oracle; Informationen zu Oracle-Versionen, die von Amazon RDS unterstützt werden, finden Sie unter [Amazon RDS for](https://aws.amazon.com/rds/oracle/) Oracle****

**Zielarchitektur**

![\[AWS Cloud architecture diagram showing VPC, application subnets, and shared services account components.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/d5e7b3fa-062f-4559-af56-aa6058f96755/images/762193cf-aa68-4195-b3c7-6541caee61c9.png)


 

## Tools
<a name="migrate-from-oracle-weblogic-to-apache-tomcat-tomee-on-amazon-ecs-tools"></a>

Um mit TomEE arbeiten zu können, muss eine Java-Anwendung in eine WAR-Datei neu erstellt werden. In einigen Fällen können Änderungen an der Anwendung erforderlich sein, um die Anwendung auf ToMEE ausführen zu können. Sie sollten überprüfen, ob die erforderlichen Konfigurationsoptionen und Umgebungseigenschaften korrekt definiert sind.  

Außerdem sollten JNDI-Lookups (Java Naming and Directory Interface) und JSP-Namespaces ( JavaServer Pages) korrekt definiert sein. Erwägen Sie, die von der Anwendung verwendeten Dateinamen zu überprüfen, um Namenskonflikte mit integrierten T-Bibliotheken zu vermeiden. Zum Beispiel ist persistence.xml ein Dateiname, der vom Apache OpenJPA-Framework (das mit OpenEJB in TomEE gebündelt ist) für Konfigurationszwecke verwendet wird. Die Datei persistence.xml in PUI enthält Bean-Deklarationen für das Spring Framework.  

ToMee Version 7.0.3 und höher (Tomcat 8.5.7 und höher) gibt eine HTTP 400-Antwort (schlechte Anfrage) für uncodierte Rohdaten mit Sonderzeichen zurück. URLs Die Serverantwort wird dem Endbenutzer als leere Seite angezeigt. [Frühere Versionen von ToMee und Tomcat erlaubten die Verwendung bestimmter unverschlüsselter Sonderzeichen in URLs; dies gilt jedoch als unsicher, wie auf der CVE-2016-6816-Website angegeben.](http://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2016-6816) Um das Problem mit der URL-Kodierung zu lösen, JavaScript müssen die direkt URLs an den Browser übergebenen Daten mit der Methode **encodeURI** () codiert werden, anstatt als unformatierte Zeichenketten verwendet zu werden. 

Nachdem Sie die .war-Datei in ToMEE bereitgestellt haben, überprüfen Sie das *Startprotokoll* von *Linux Cat* auf fehlende gemeinsam genutzte Bibliotheken und Oracle-spezifische Erweiterungen, um fehlende Komponenten aus Tomcat-Bibliotheken hinzuzufügen. 

 

**Allgemeines Verfahren**
+ Konfigurieren Sie die Anwendung auf TomEE.
+ Identifizieren und rekonfigurieren Sie anwendungsserverspezifische Konfigurationsdateien und Ressourcen vom Quell- bis zum Zielformat.
+ Identifizieren und rekonfigurieren Sie JNDI-Ressourcen.
+ Passen Sie den EJB-Namespace und die Lookups an das vom Zielanwendungsserver benötigte Format an (falls zutreffend).
+ Konfigurieren Sie containerspezifische Sicherheitsrollen und Prinzipalzuordnungen für JAAS-Anwendungen neu (falls zutreffend).
+ Package Sie die Anwendung und die gemeinsam genutzten Bibliotheken in eine WAR-Datei.
+ Stellen Sie die .war-Datei in TomEE mithilfe des bereitgestellten Docker-Containers bereit.
+ Überwachen *Sie das Startprotokoll*, um alle fehlenden Erweiterungen für gemeinsam genutzte Bibliotheken und Bereitstellungsdeskriptoren zu identifizieren. Wenn welche gefunden wurden, kehren Sie zur ersten Aufgabe zurück. 
+ Testen Sie die installierte Anwendung anhand der wiederhergestellten Amazon RDS-Datenbank.
+ Starten Sie die komplette Architektur mit einem Load Balancer und einem Amazon ECS-Cluster, indem Sie den Anweisungen unter [Deploy Docker](https://aws.amazon.com/getting-started/tutorials/deploy-docker-containers/) Containers folgen.
+ Aktualisieren Sie die URLs , um auf den Load Balancer zu verweisen. 
+ Aktualisieren Sie die Configuration Management Database (CMDB). 

## Epen
<a name="migrate-from-oracle-weblogic-to-apache-tomcat-tomee-on-amazon-ecs-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Führen Sie eine Anwendungserkennung durch (aktueller Status und Leistungsbasis). |  | BA, Leiter der Migration | 
| Validieren Sie die Versionen und Engines der Quell- und Zieldatenbank. |  | DBA | 
| Validieren Sie das Design der Quell- und Zielanwendung (Identitäts- und Sitzungsmanagement). |  | DBA, Migrationsingenieur, App-Besitzer | 
| Identifizieren Sie die Hardware- und Speicheranforderungen für die Zielserverinstanz. |  | DBA, SysAdmin | 
| Wählen Sie den richtigen Instanztyp auf der Grundlage von Kapazität, Speicherfunktionen und Netzwerkfunktionen aus. |  | DBA, SysAdmin | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken. |  | DBA, SysAdmin | 
| Identifizieren Sie die Strategie und die Tools für die Anwendungsmigration. |  | DBA, Leiter der Migration | 
| Füllen Sie das Migrationsdesign und den Migrationsleitfaden für die Anwendung aus. |  | Leitung aufbauen, Leitung Migration | 
| Vervollständigen Sie das Runbook zur Anwendungsmigration. |  | Leiter Aufbau, Leiter der Umstellung, Leiter des Tests, Leiter der Migration | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer Virtual Private Cloud (VPC). |  | SysAdmin | 
| Erstellen Sie Sicherheitsgruppen. |  | SysAdmin | 
| Konfigurieren und starten Sie die Amazon RDS-DB-Instance. |  | DBA, SysAdmin | 
| Konfigurieren Sie die Amazon ECS-Bereitstellung. |  | SysAdmin | 
| Package Sie Ihre Anwendung als Docker-Image. |  | SysAdmin | 
| Übertragen Sie das Image in die Amazon ECR-Registrierung (oder überspringen Sie diesen Schritt und übertragen Sie es in den Amazon ECS-Cluster). |  | SysAdmin | 
| Konfigurieren Sie die Aufgabendefinition für die Anwendung und die Amazon ECS-Serviceoptionen. |  | SysAdmin | 
| Konfigurieren Sie Ihren Cluster, überprüfen Sie die Sicherheitseinstellungen und legen Sie AWS Identity and Access Management (IAM) -Rollen fest. |  | SysAdmin | 
| Starten Sie Ihr Setup und führen Sie Tests gemäß Ihrem Runbook für die Anwendungsmigration aus. |  | SysAdmin | 

### Daten migrieren
<a name="migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Holen Sie sich die Erlaubnis Ihres Sicherheitsteams, Produktionsdaten nach AWS zu verschieben. |  | DBA, Migrationsingenieur, App-Besitzer | 
| Erstellen Sie Endpunkte und erhalten Sie Zugriff auf diese, um Datenbank-Backupdateien abzurufen. |  | DBA | 
| Verwenden Sie die native Datenbank-Engine oder Tools von Drittanbietern, um Datenbankobjekte und Daten zu migrieren. |  | DBA | 
| Führen Sie die erforderlichen Tests im Runbook für die Anwendungsmigration aus, um die erfolgreiche Datenmigration zu bestätigen. |  | DBA, Migrationsingenieur, App-Besitzer | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie einen Änderungsantrag (CR) für die Migration. |  | Leitung der Umstellung | 
| Besorgen Sie sich die CR-Genehmigung für die Migration. |  | Übernahme (Leitung) | 
| Folgen Sie der Strategie zur Anwendungsmigration aus dem Runbook zur Anwendungsmigration. |  | DBA, Migrationsingenieur, App-Besitzer | 
| Aktualisieren Sie die Anwendung (falls erforderlich). |  | DBA, Migrationsingenieur, App-Besitzer | 
| Führen Sie funktionale und nichtfunktionale Tests sowie Datenvalidierungs-, SLA- und Leistungstests durch. |  | Testleiter, App-Besitzer, App-Nutzer | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Lassen Sie sich vom Antrag oder Geschäftsinhaber unterschreiben. |  | Übernahme (Leitung) | 
| Führen Sie eine Übung mit einem Tabellenthema durch, in der Sie alle Schritte des Cutover-Runbooks durchgehen. |  | DBA, Migrationsingenieur, App-Besitzer | 
| Wechseln Sie zu den Anwendungsclients auf die neue Infrastruktur. |  | DBA, Migrationsingenieur, App-Besitzer | 

### Schließen Sie das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie temporäre AWS-Ressourcen herunter. |  | DBA, Migrationsingenieur, SysAdmin | 
| Überprüfen und validieren Sie die Projektdokumente. |  | Leiter der Migration | 
| Erfassen Sie Kennzahlen zum Zeitpunkt der Migration, zum prozentualen Anteil manueller Änderungen im Vergleich zu Tools, zu Kosteneinsparungen usw. |  | Leiter der Migration | 
| Schließen Sie das Projekt ab und geben Sie Feedback. |  | Leiter der Migration, Inhaber der App | 

## Zugehörige Ressourcen
<a name="migrate-from-oracle-weblogic-to-apache-tomcat-tomee-on-amazon-ecs-related-resources"></a>

**Referenzen**
+ [Dokumentation zu Apache Tomcat 7.0](https://tomcat.apache.org/tomcat-7.0-doc/realm-howto.html) 
+ [Installationsanleitung für Apache Tomcat 7.0](https://tomcat.apache.org/tomcat-7.0-doc/appdev/installation.html) 
+ [Apache Tomcat JNDI-Dokumentation](https://tomcat.apache.org/tomcat-7.0-doc/jndi-datasource-examples-howto.html) 
+ [Apache TomEE-Dokumentation](http://tomee.apache.org/) 
+ [Amazon RDS für Oracle](https://aws.amazon.com/rds/oracle/) 
+ [Amazon-RDS-Preise](https://aws.amazon.com/rds/pricing/) 
+ [Oracle und AWS](https://aws.amazon.com/oracle/) 
+ [Dokumentation zu Oracle auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html) 
+ [Amazon RDS Multi-AZ-Bereitstellungen](https://aws.amazon.com/rds/details/multi-az/) 
+ [Erste Schritte mit Amazon ECS](https://aws.amazon.com/ecs/getting-started/)
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/) 

**Tutorials und Videos**
+ [Bewährte Methoden für den Betrieb von Oracle-Datenbanken auf Amazon RDS](https://www.youtube.com/watch?v=j2wqT0EPDbw) (Präsentation re:Invent 2018) 

# Migrieren Sie mithilfe von AWS DMS eine Oracle-Datenbank von Amazon EC2 zu Amazon RDS for Oracle
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-oracle-using-aws-dms"></a>

*Chethan Gangadharaiah und Brian Motzer, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-oracle-using-aws-dms-summary"></a>

Dieses Muster beschreibt die Schritte zur Migration einer Oracle-Datenbank auf Amazon Elastic Compute Cloud (Amazon EC2) zu Amazon Relational Database Service (Amazon RDS) für Oracle mithilfe von AWS Database Migration Service (AWS DMS). Das Muster verwendet auch Oracle SQL Developer oder SQL \$1Plus, um eine Verbindung zu Ihrer Oracle-DB-Instance herzustellen, und beinhaltet eine CloudFormation AWS-Vorlage, die einige der Aufgaben automatisiert.

Durch die Migration zu Amazon RDS for Oracle können Sie sich auf Ihr Geschäft und Ihre Anwendungen konzentrieren, während Amazon RDS sich um Datenbankverwaltungsaufgaben wie die Bereitstellung von Datenbanken, Sicherung und Wiederherstellung, Sicherheitspatches, Versions-Upgrades und Speichermanagement kümmert.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-oracle-using-aws-dms-prerequisites-and-limitations"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Ein Amazon Machine Image (AMI) für Oracle Database auf Amazon EC2

**Produktversionen**
+ AWS DMS unterstützt die Oracle-Versionen 11g (Version 11.2.0.3.v1 und höher), 12c und 18c für Amazon RDS-Instance-Datenbanken für die Editionen Enterprise, Standard, Standard One und Standard Two. Aktuelle Informationen zu unterstützten Versionen finden Sie in der AWS-Dokumentation unter [Using an Oracle Database as a Target for AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Oracle.html). (Die angehängten CloudFormation AWS-Vorlagen verwenden Oracle Version 12c als Quelldatenbank.)
+ Oracle SQL Developer 4.0.3

## Architektur
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-oracle-using-aws-dms-architecture"></a>

**Quellarchitektur**
+ Oracle-Datenbank auf Amazon EC2

**Zielarchitektur**
+ Amazon RDS für Oracle

**Migrationsarchitektur**

![\[AWS Cloud architecture showing Oracle database migration from EC2 to RDS across availability zones.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/4db0c731-0897-4eb8-a06f-b648c3d94b2c/images/636c2a69-5a78-482d-ae81-55e9ec975ead.png)


## Tools
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-oracle-using-aws-dms-tools"></a>
+ [AWS DMS](https://docs.aws.amazon.com/dms/index.html) — Mit dem AWS Database Migration Service (AWS DMS) können Sie Datenbanken schnell und sicher zu AWS migrieren. Es unterstützt sowohl homogene als auch heterogene Migrationen. Informationen zu den unterstützten Oracle-Datenbankversionen und -Editionen finden Sie in der AWS-Dokumentation [unter Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) und [Verwenden einer Oracle-Datenbank als Ziel für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Oracle.html).
+ **Oracle SQL Developer oder SQL \$1Plus** — Mit diesen Tools können Sie eine Verbindung zur Amazon RDS for Oracle DB-Instance herstellen.

## Epen
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-oracle-using-aws-dms-epics"></a>

### Richten Sie Ihre Zieldatenbank ein
<a name="set-up-your-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Amazon RDS for Oracle DB-Instance. | Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die Amazon RDS-Konsole unter https://console.aws.amazon.com/rds/. Erstellen Sie eine Oracle-DB-Instance, indem Sie die entsprechende Engine, Vorlage, Einstellung für Datenbankanmeldedaten, Instance-Typ, Speicher, Multi-AZ-Einstellungen, Virtual Private Cloud (VPC) und Konfiguration, Anmeldeinformationen und zusätzliche Einstellungen für die Oracle-Datenbank auswählen. Anweisungen finden Sie unter den Links im Abschnitt „Verwandte Ressourcen“. Oder verwenden Sie die CloudFormation AWS-Vorlage (create\$1rds.YAML) im Anhang, um die Amazon RDS for Oracle Oracle-DB-Instance zu erstellen. | Developer | 
| Connect zu Amazon RDS her und gewähren Sie dem Oracle-Benutzer Rechte. | Ändern Sie die Sicherheitsgruppe, um die entsprechenden Ports für die Verbindung vom lokalen Computer und der AWS DMS-Replikationsinstanz aus zu öffnen. Stellen Sie bei der Konfiguration der Konnektivität sicher, dass die Option „Öffentlich zugänglich“ ausgewählt ist, damit Sie von außerhalb der VPC eine Verbindung zur Datenbank herstellen können. Stellen Sie mit Oracle SQL Developer oder SQL \$1Plus mithilfe der Anmeldeinformationen eine Connect zu Amazon RDS her, erstellen Sie einen AWS DMS-Benutzer und gewähren Sie dem AWS DMS-Benutzer die erforderlichen Rechte, um die Datenbank zu ändern. | Developer | 

### Konfigurieren Sie die Sicherheitsgruppe der Quell-Instance EC2
<a name="configure-the-security-group-of-the-source-ec2-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Prüfen Sie, ob die Oracle-Datenbank läuft. | Verwenden Sie Secure Shell (SSH), um eine Verbindung zur EC2 Instance herzustellen, und versuchen Sie, mithilfe von SQL \$1Plus eine Verbindung zur Oracle-Datenbank herzustellen. | Developer | 
| Ändern Sie die Sicherheitsgruppe. | Ändern Sie die Sicherheitsgruppe der EC2 Instance, um die entsprechenden Ports zu öffnen, sodass Sie von Ihrem lokalen Computer und der AWS DMS-Replikationsinstanz aus eine Verbindung herstellen können. | Developer | 

### AWS DMS einrichten
<a name="set-up-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine AWS DMS-Replikations-Instance. | Erstellen Sie in AWS DMS eine Replikationsinstanz in derselben VPC wie Ihre Amazon RDS for Oracle DB-Instance. Geben Sie den Namen und die Beschreibung für die Replikationsinstanz an, wählen Sie die Instance-Klasse und die Version der Replication Engine (verwenden Sie die Standardversion), wählen Sie die VPC aus, in der Sie die Amazon RDS-DB-Instance erstellt haben, legen Sie bei Bedarf Multi-AZ-Einstellungen fest, weisen Sie Speicher zu, geben Sie die Availability Zone an und konfigurieren Sie zusätzliche Einstellungen. Alternativ können Sie die CloudFormation AWS-Vorlage (dms.YAML) im Anhang verwenden, um diesen Schritt zu implementieren. | DBA | 
| Connect zu den Quell- und Zieldatenbank-Endpunkten her. | Erstellen Sie die Quell- und Zieldatenbankendpunkte, indem Sie die Endpunkt-ID, die Engine, den Server, den Port, die Anmeldeinformationen und zusätzliche Verbindungsattribute angeben. Verwenden Sie für den Quellserver den öffentlichen DNS der EC2 Instanz, die die Oracle-Datenbank hostet. Verwenden Sie für den Zielserver den Endpunkt von Amazon RDS for Oracle. Führen Sie einen Test durch, um zu überprüfen, ob die Quell- und Zielverbindungen funktionieren. Alternativ können Sie die CloudFormation AWS-Vorlage (dms.YAML) im Anhang verwenden, um diesen Schritt zu implementieren. | DBA | 
| Erstellen Sie eine AWS DMS-Aufgabe. | Erstellen Sie eine AWS DMS-Aufgabe, um Daten vom Quellendpunkt zum Zielendpunkt zu migrieren, um die Replikation zwischen dem Quell- und Zielendpunkt oder beiden einzurichten. Geben Sie bei der Erstellung der AWS DMS-Aufgabe die Replikationsinstanz, den Quellendpunkt, den Zielendpunkt, den Migrationstyp (nur Daten, nur Replikation oder beides), die Tabellenzuordnung und den Filter an. Führen Sie die AWS DMS-Aufgabe aus, überwachen Sie die Aufgabe, überprüfen Sie die Tabellenstatistiken und überprüfen Sie die Protokolle in Amazon CloudWatch. Alternativ können Sie die CloudFormation AWS-Vorlage (dms.YAML) im Anhang verwenden, um diesen Schritt zu implementieren. | DBA | 

## Zugehörige Ressourcen
<a name="migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-oracle-using-aws-dms-related-resources"></a>
+ [Eine Amazon RDS-DB-Instance erstellen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_CreateOracleInstance.html)
+ [Eine Verbindung zu einer DB-Instance aufbauen, die mit der Oracle-Datenbank-Engine ausgeführt wird](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_ConnectToOracleInstance.html)
+ [AWS DMS-Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
+ [Exemplarische Vorgehensweisen zu AWS DMS Step-by-Step](https://docs.aws.amazon.com/dms/latest/sbs/DMS-SBS-Welcome.html)
+ [Migration von Oracle-Datenbanken in die AWS-Cloud](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/welcome.html)

## Anlagen
<a name="attachments-4db0c731-0897-4eb8-a06f-b648c3d94b2c"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/4db0c731-0897-4eb8-a06f-b648c3d94b2c/attachments/attachment.zip)

# Migrieren Sie eine lokale Oracle-Datenbank mit Logstash zu Amazon OpenSearch Service
<a name="migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash"></a>

*Aditya Goteti, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash-summary"></a>

Dieses Muster beschreibt, wie Daten mithilfe von Logstash aus einer lokalen Oracle-Datenbank zu Amazon OpenSearch Service verschoben werden. Es beinhaltet architektonische Überlegungen sowie einige erforderliche Fähigkeiten und Empfehlungen. Die Daten können aus einer einzelnen Tabelle oder aus mehreren Tabellen stammen, in denen eine Volltextsuche durchgeführt werden muss. 

OpenSearch Der Dienst kann in einer Virtual Private Cloud (VPC) konfiguriert oder mit IP-basierten Einschränkungen öffentlich platziert werden. Dieses Muster beschreibt ein Szenario, in dem der OpenSearch Dienst in einer VPC konfiguriert ist. Logstash wird verwendet, um die Daten aus der Oracle-Datenbank zu sammeln, sie im JSON-Format zu parsen und die Daten dann in Service einzuspeisen. OpenSearch  

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Java 8 (für Logstash 6.4.3 erforderlich)
+ Konnektivität zwischen den lokalen Datenbankservern und Amazon Elastic Compute Cloud (Amazon EC2) -Instances in einer VPC, eingerichtet mit AWS Virtual Private Network (AWS VPN)
+ Eine Abfrage zum Abrufen der erforderlichen Daten, die an den OpenSearch Service übertragen werden sollen, aus der Datenbank
+ Treiber für Oracle Java Database Connectivity (JDBC)

**Einschränkungen**
+ Logstash kann keine Datensätze identifizieren, die dauerhaft aus der Datenbank gelöscht wurden 

**Versionen der Produkte**
+ Oracle Datenbank 12c
+ OpenSearch Service 6.3
+ Logstash 6.4.3

## Architektur
<a name="migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale Oracle-Datenbank
+ Lokales AWS-VPN

**Zieltechnologie-Stack**
+ VPC
+ EC2 Instanz
+ OpenSearch Dienst 
+ Logstash
+ NAT Gateway (für Betriebssystem-Updates auf EC2 Instanzen und zur Installation von Java 8, Logstash und Plugins)

**Architektur der Datenmigration**

![\[So verschieben Sie Daten mithilfe von Logstash von einer lokalen Oracle-Datenbank zu Amazon OpenSearch Service.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/09f6d2de-de2f-4ed6-af93-34b71b75a263/images/df6a61fb-09fb-49d4-a7e8-b04e88c003df.png)


## Tools
<a name="migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash-tools"></a>
+ Logstash 6.4.3
+ [JDBC-Eingabe-Plugin (Download und weitere Informationen)](https://www.elastic.co/guide/en/logstash/current/plugins-inputs-jdbc.html)
+ [Logstash-Ausgabe-Plugin (\$1es) logstash-output-amazon](https://github.com/awslabs/logstash-output-amazon_es)
+ Oracle JDBC-Treiber

## Epen
<a name="migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Identifizieren Sie die Größe der Quelldaten. | Die Größe der Quelldaten ist einer der Parameter, mit denen Sie die Anzahl der Shards bestimmen, die in einem Index konfiguriert werden sollen. | DBA, Datenbankentwickler | 
| Analysieren Sie die Datentypen jeder Spalte und die entsprechenden Daten. | OpenSearch Service ordnet den Datentyp dynamisch zu, wenn ein zuvor unsichtbares Feld im Dokument gefunden wird. Wenn bestimmte Datentypen oder Formate (z. B. Datumsfelder) explizit deklariert werden müssen, identifizieren Sie die Felder und definieren Sie die Zuordnung für diese Felder bei der Indexerstellung. | App-Besitzer, Entwickler, Datenbankentwickler | 
| Ermitteln Sie, ob Spalten mit Primärschlüsseln oder eindeutigen Schlüsseln vorhanden sind. | Um bei Aktualisierungen oder Einfügungen doppelte Datensätze in Amazon OpenSearch Service zu vermeiden, müssen Sie die `document_id` Einstellung im Ausgabebereich des `amazon_es` Plug-ins konfigurieren (z. B. `document_id => "%{customer_id}"` wo `customer_id` ist ein Primärschlüssel). | Besitzer der App, Entwickler | 
| Analysieren Sie die Anzahl und Häufigkeit neu hinzugefügter Datensätze und überprüfen Sie, wie oft die Datensätze gelöscht werden. | Diese Aufgabe ist erforderlich, um die Wachstumsrate von Quelldaten zu verstehen. Wenn Daten intensiv gelesen werden und es nur selten zu Einfügungen kommt, können Sie einen einzigen Index verwenden. Wenn häufig neue Datensätze eingefügt werden und keine Löschungen vorgenommen werden, kann die Shard-Größe leicht die empfohlene Maximalgröße von 50 GB überschreiten. In diesem Fall können Sie einen Index dynamisch erstellen, indem Sie Indexmuster in Logstash und im Code konfigurieren, über den Sie mithilfe eines Alias darauf zugreifen können. | Besitzer der App, Entwickler | 
| Ermitteln Sie, wie viele Replikate erforderlich sind. |  | Besitzer der App, Entwickler | 
| Ermitteln Sie die Anzahl der Shards, die für den Index konfiguriert werden sollen. |  | Besitzer der App, Entwickler | 
| Identifizieren Sie die Instanztypen für dedizierte Master-Knoten, Datenknoten und die EC2 Instanz. | Weitere Informationen finden Sie im Abschnitt [Verwandte Ressourcen](#migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash-resources). | Besitzer der App, Entwickler | 
| Ermitteln Sie die Anzahl der erforderlichen dedizierten Master- und Datenknoten. | Weitere Informationen finden Sie im Abschnitt [Verwandte Ressourcen](#migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash-resources). |  | 

### Daten migrieren
<a name="migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Starten Sie eine EC2 Instanz. | Starten Sie eine EC2 Instance innerhalb der VPC, mit der AWS VPN verbunden ist. | Amazon VPC-Konstrukte, AWS-VPN | 
| Installieren Sie Logstash auf der Instance. EC2  |  | Developer | 
| Installieren Sie die Logstash-Plugins. | Installieren Sie die erforderlichen Logstash-Plugins und. `jdbc-input` ` logstash-output-amazon_es` | Developer | 
| Konfigurieren Sie Logstash. | Erstellen Sie den Logstash-Keystore, um vertrauliche Informationen wie AWS Secrets Manager Manager-Schlüssel und Datenbankanmeldedaten zu speichern, und platzieren Sie die Verweise dann in einer Logstash-Konfigurationsdatei. | Developer | 
| Konfigurieren Sie die Warteschlange für unzulässige Nachrichten und die persistente Warteschlange. | Wenn Logstash auf ein Ereignis trifft, das nicht verarbeitet werden kann, weil die Daten einen Zuordnungsfehler oder ein anderes Problem enthalten, hängt die Logstash-Pipeline standardmäßig entweder oder löscht das erfolglose Ereignis. Um in dieser Situation vor Datenverlust zu schützen, können Sie Logstash so konfigurieren, dass erfolglose Ereignisse in eine Warteschlange mit unbestätigten Nachrichten geschrieben werden, anstatt sie zu löschen. Zum Schutz vor Datenverlust bei abnormalem Abbruch verfügt Logstash über eine persistente Warteschlangenfunktion, die die Nachrichtenwarteschlange auf der Festplatte speichert. Persistente Warteschlangen sorgen für die Beständigkeit der Daten in Logstash. | Developer | 
| Erstellen Sie die Amazon OpenSearch Service-Domain. | Erstellen Sie die Amazon OpenSearch Service-Domain mit einer Zugriffsrichtlinie, die keine Signierung von Anfragen mit AWS Identity and Access Management (IAM) -Anmeldeinformationen erfordert. Die Amazon OpenSearch Service-Domain muss innerhalb derselben VPC erstellt werden. Sie sollten auch die Instance-Typen auswählen und die Anzahl der Dedicated Nodes und der Master Nodes auf der Grundlage Ihrer Analyse festlegen. | Developer | 
| Konfigurieren Sie die erforderlichen Amazon OpenSearch Service-Protokolle. | Weitere Informationen finden Sie in der [OpenSearch Servicedokumentation](https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/cloudwatch-alarms.html). |  | 
| Erstellen Sie den Index. |  | Developer | 
| Starten Sie Logstash. | Führen Sie Logstash als Hintergrunddienst aus. Logstash führt die konfigurierte SQL-Abfrage aus, ruft die Daten ab, konvertiert sie in das JSON-Format und leitet sie an Service weiter. OpenSearch Für den ersten Ladevorgang sollten Sie den Scheduler nicht in der Logstash-Konfigurationsdatei konfigurieren. | Developer | 
| Überprüfen Sie die Dokumente. | Überprüfen Sie die Anzahl der Dokumente im Index und ob alle Dokumente in der Quelldatenbank vorhanden sind. Beim ersten Laden werden sie dem Index hinzugefügt und zum Stoppen von Logstash verwendet. Ändern Sie die Logstash-Konfiguration, um einen Scheduler hinzuzufügen, der je nach den Anforderungen des Clients in einem festen Intervall läuft, und starten Sie Logstash neu. Logstash wählt nur die Datensätze aus, die nach dem letzten Lauf aktualisiert oder hinzugefügt wurden, und der Zeitstempel der letzten Ausführung wird in der Datei gespeichert, die mit der Eigenschaft in der Logstash-Konfigurationsdatei konfiguriert ist. `last_run_metadata_path => "/usr/share/logstash/.logstash_jdbc_last_run"` | Developer | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash-resources"></a>
+ [Empfohlene CloudWatch Alarme](https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/cloudwatch-alarms.html) 
+ [Dedizierte Amazon OpenSearch Service Master Nodes](https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/es-managedomains-dedicatedmasternodes.html) 
+ [Dimensionierung von Amazon OpenSearch Service-Domains](https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/sizing-domains.html) 
+ [Logstash-Dokumentation](https://www.elastic.co/guide/en/logstash/current/getting-started-with-logstash.html) 
+ [JDBC-Eingabe-Plugin](https://www.elastic.co/guide/en/logstash/current/plugins-inputs-jdbc.html)
+ [Logstash-Ausgabe-Plugin](https://github.com/awslabs/logstash-output-amazon_es)
+ [Amazon OpenSearch Service-Webseite](https://aws.amazon.com/elasticsearch-service/) 

# Migrieren Sie eine lokale Oracle-Datenbank zu Amazon RDS for Oracle
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle"></a>

*Baji Shaik und Pavan Pusuluri, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-summary"></a>

Dieses Muster beschreibt die Schritte für die Migration von lokalen Oracle-Datenbanken zu Amazon Relational Database Service (Amazon RDS) für Oracle. Im Rahmen des Migrationsprozesses erstellen Sie einen Migrationsplan und berücksichtigen wichtige Faktoren in Bezug auf Ihre Zieldatenbankinfrastruktur auf der Grundlage Ihrer Quelldatenbank. Sie können je nach Ihren Geschäftsanforderungen und Ihrem Anwendungsfall eine von zwei Migrationsoptionen wählen:
+ AWS Database Migration Service (AWS DMS) — Mit AWS DMS können Sie Datenbanken schnell und sicher in die AWS-Cloud migrieren. Ihre Quelldatenbank bleibt während der Migration voll funktionsfähig, wodurch die Ausfallzeiten von Anwendungen, die auf die Datenbank angewiesen sind, minimiert werden. Sie können die Migrationszeit reduzieren, indem Sie mit AWS DMS eine Aufgabe erstellen, die laufende Änderungen erfasst, nachdem Sie eine erste Volllastmigration über einen Prozess namens [Change Data Capture (CDC)](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Task.CDC.html) abgeschlossen haben. 
+ Systemeigene Oracle-Tools — Sie können Datenbanken mithilfe systemeigener Oracle-Tools wie Oracle und [Data Pump Export und Data Pump](https://docs.oracle.com/cd/E11882_01/server.112/e22490/dp_export.htm#SUTIL200) [Import](https://docs.oracle.com/cd/E11882_01/server.112/e22490/dp_import.htm#SUTIL300) mit [Oracle for GoldenGate](https://docs.oracle.com/goldengate/c1230/gg-winux/GGCON/introduction-oracle-goldengate.htm#GGCON-GUID-EF513E68-4237-4CB3-98B3-2E203A68CBD4) CDC migrieren. Sie können auch native Oracle-Tools wie das ursprüngliche [Export-Hilfsprogramm und das ursprüngliche [Import-Hilfsprogramm](https://docs.oracle.com/cd/E11882_01/server.112/e22490/original_import.htm#SUTIL001)](https://docs.oracle.com/cd/E11882_01/server.112/e22490/original_export.htm#SUTIL3634) verwenden, um die Vollladezeit zu reduzieren.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine lokale Oracle-Datenbank
+ Eine Amazon RDS-Oracle-Datenbank-Instance (DB)

**Einschränkungen**
+ Größenbeschränkung der Datenbank: 64 TB

**Produktversionen**
+ Oracle-Versionen 11g (Versionen 11.2.0.3.v1 und höher) und bis zu 12.2 und 18c. Die aktuelle Liste der unterstützten Versionen und Editionen finden Sie in der AWS-Dokumentation unter [Amazon RDS for Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html). Informationen zu Oracle-Versionen, die von AWS DMS unterstützt werden, finden Sie [unter Verwenden einer Oracle-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html) in der AWS DMS-Dokumentation.

## Architektur
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale Oracle-Datenbanken

**Zieltechnologie-Stack**
+ Amazon RDS für Oracle

**Quell- und Zielarchitektur**

Das folgende Diagramm zeigt, wie eine lokale Oracle-Datenbank mithilfe von AWS DMS zu Amazon RDS for Oracle migriert wird.

![\[Workflow für die Migration von Oracle-Datenbanken zu Amazon RDS for Oracle mithilfe von AWS DMS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/25912997-0ac0-4303-9ce5-0621a7e12406/images/20f94a5c-1095-4182-b964-c379414c9a36.png)


Das Diagramm zeigt den folgenden Workflow:

1. [Erstellen oder verwenden Sie einen vorhandenen Datenbankbenutzer, gewähren Sie diesem Benutzer die erforderlichen [AWS DMS-Berechtigungen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html#CHAP_Source.Oracle.Self-Managed), aktivieren Sie den [ARCHIVELOG-Modus](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html#CHAP_Source.Oracle.Self-Managed.Configuration.ArchiveLogMode) und richten Sie dann die zusätzliche Protokollierung ein.](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.Oracle.html#CHAP_Source.Oracle.Self-Managed.Configuration.SupplementalLogging)

1. Konfigurieren Sie das Internet-Gateway zwischen dem lokalen Netzwerk und dem AWS-Netzwerk.

1. Konfigurieren Sie [Quell- und Zielendpunkte](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Endpoints.Creating.html) für AWS DMS.

1. Konfigurieren Sie [AWS DMS-Replikationsaufgaben](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.html), um die Daten von der Quelldatenbank zur Zieldatenbank zu migrieren.

1. Schließen Sie die Aktivitäten nach der Migration in der Zieldatenbank ab.

Das folgende Diagramm zeigt, wie eine lokale Oracle-Datenbank mithilfe nativer Oracle-Tools zu Amazon RDS for Oracle migriert wird.

![\[Workflow für die Migration von Oracle-Datenbanken zu Amazon RDS for Oracle mithilfe von Oracle-Tools.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/25912997-0ac0-4303-9ce5-0621a7e12406/images/af8e0e1a-d4c8-4d99-9780-3e093ad9a257.png)


Das Diagramm zeigt den folgenden Workflow:

1. Erstellen oder verwenden Sie einen vorhandenen Datenbankbenutzer und gewähren Sie die erforderlichen Berechtigungen zum Sichern der Oracle-Datenbank mithilfe der Oracle-Dienstprogramme Export (`exp`) und Import (`imp`).

1. Konfigurieren Sie das Internet-Gateway zwischen dem lokalen Netzwerk und dem AWS-Netzwerk.

1. Konfigurieren Sie den Oracle-Client auf dem [Bastion-Host](https://www.oracle.com/security/cloud-security/bastion/) so, dass er die Backup-Datenbank verwendet.

1. Laden Sie die Backup-Datenbank in einen Amazon Simple Storage Service (Amazon S3) -Bucket hoch.

1. Stellen Sie die Datenbanksicherung von Amazon S3 in einer Amazon RDS for Oracle Oracle-Datenbank wieder her.

1. Konfigurieren Sie Oracle GoldenGate für CDC.

1. Schließen Sie die Aktivitäten nach der Migration in der Zieldatenbank ab.

## Tools
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-tools"></a>
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Setups.
+ Native Oracle-Tools helfen Ihnen bei der Durchführung einer homogenen Migration. Sie können [Oracle Data Pump](https://docs.oracle.com/cd/B19306_01/server.102/b14215/dp_overview.htm) verwenden, um Daten zwischen Ihren Quell- und Zieldatenbanken zu migrieren. Dieses Muster verwendet Oracle Data Pump, um den vollen Ladevorgang von der Quelldatenbank in die Zieldatenbank durchzuführen.
+ [Oracle GoldenGate](https://docs.oracle.com/goldengate/c1230/gg-winux/GGCON/introduction-oracle-goldengate.htm#GGCON-GUID-EF513E68-4237-4CB3-98B3-2E203A68CBD4) unterstützt Sie bei der logischen Replikation zwischen zwei oder mehr Datenbanken. Dieses Muster wird verwendet GoldenGate , um die Delta-Änderungen nach dem ersten Laden mithilfe von Oracle Data Pump zu replizieren.

## Epen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie Projektdokumente und zeichnen Sie Datenbankdetails auf. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | DBA | 
| Identifizieren Sie die Speicheranforderungen. | Identifizieren und dokumentieren Sie Ihre Speicheranforderungen, einschließlich der folgenden:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html)Für [Allzweck-SSD-Volumes (GP2)](https://aws.amazon.com/ebs/volume-types/) erhalten Sie drei IOPS pro 1 GB Speicher. Ordnen Sie Speicherplatz zu, indem Sie die Gesamtzahl der Lese- und Schreib-IOPS in der Quelldatenbank berechnen. | DBA, SysAdmin | 
| Wählen Sie den richtigen Instanztyp basierend auf den Rechenanforderungen aus. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | SysAdmin | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | DBA, SysAdmin | 
| Identifizieren Sie die Strategie zur Anwendungsmigration. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | DBA, Besitzer der App SysAdmin | 
| Identifizieren Sie Migrationsrisiken. | Beurteilen Sie die Datenbank und dokumentieren Sie migrationsspezifische Risiken und Abhilfemaßnahmen. Beispiel:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | DBA | 

### Konfiguration der Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine VPC. | [Erstellen Sie eine neue Amazon Virtual Private Cloud (Amazon VPC)](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/gsg_create_vpc.html) für die Ziel-DB-Instance. | SysAdmin | 
| Erstellen Sie Sicherheitsgruppen. | [Erstellen Sie eine Sicherheitsgruppe](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/working-with-security-groups.html#creating-security-group) in Ihrer neuen VPC, um eingehende Verbindungen zur DB-Instance zuzulassen. | SysAdmin | 
| Erstellen Sie eine Amazon RDS for Oracle Oracle-DB-Instance. | [Erstellen Sie die Ziel-DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_CreateDBInstance.html) mit der neuen VPC und Sicherheitsgruppe und starten Sie dann die Instance. | SysAdmin | 

### Option 1: Verwenden Sie native Tools von Oracle oder Drittanbietern, um Daten zu migrieren
<a name="option-1---use-native-oracle-or-third-party-tools-to-migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie die Quelldatenbank vor. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | DBA, SysAdmin | 
| Bereiten Sie die Zieldatenbank vor. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | DBA, SysAdmin | 

### Option 2 — Verwenden Sie AWS DMS, um Daten zu migrieren
<a name="option-2---use-aws-dms-to-migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie die Daten vor. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | DBA | 
| Migrieren Sie die Daten. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | DBA | 

### Wechseln Sie zur Zieldatenbank
<a name="cut-over-to-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die Anwendungsclients auf die neue Infrastruktur um. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | DBA SysAdmin, Besitzer der App | 
| Implementieren Sie Ihren Rollback-Plan. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.html) | DBA, Besitzer der App | 

### Schließen Sie das Migrationsprojekt ab
<a name="close-out-the-migration-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereinigen Sie die Ressourcen. | Fahren Sie die temporären AWS-Ressourcen herunter oder entfernen Sie sie, z. B. die AWS DMS-Replikationsinstanz und den S3-Bucket. | DBA, SysAdmin | 
| Überprüfen Sie die Projektdokumente. | Überprüfen Sie Ihre Dokumente und Ziele zur Migrationsplanung und stellen Sie dann sicher, dass Sie alle erforderlichen Migrationsschritte abgeschlossen haben. | DBA SysAdmin, Besitzer der App | 
| Sammeln Sie Metriken. | Erfassen Sie wichtige Migrationskennzahlen, wie lange es gedauert hat, bis die Migration abgeschlossen ist, wie viel Prozent manuelle Aufgaben im Vergleich zu toolbasierten Aufgaben haben, Kosteneinsparungen und andere relevante Kennzahlen. | DBA, Besitzer der SysAdmin App | 
| Schließt das Projekt ab. | Schließen Sie das Migrationsprojekt ab und sammeln Sie Feedback zu den Bemühungen. | DBA SysAdmin, App-Besitzer | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-resources"></a>

**Referenzen**
+ [Migration von Oracle-Datenbanken in die AWS-Cloud (AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/migration-oracle-database/welcome.html) Prescriptive Guidance)
+ [AWS Database Migration Service](https://aws.amazon.com/dms/) (AWS DMS-Dokumentation)
+ [Amazon RDS-Preise](https://aws.amazon.com/rds/pricing/) (Amazon RDS-Dokumentation)

**Tutorials und Videos**
+ [Erste Schritte mit AWS Database Migration Service](https://aws.amazon.com/dms/getting-started/) (AWS DMS-Dokumentation)
+ [Amazon RDS-Ressourcen](https://aws.amazon.com/rds/getting-started/) (Amazon RDS-Dokumentation)
+ [AWS Database Migration Service (DMS) (YouTube)](https://www.youtube.com/watch?v=zb4GcjEdl8U)

# Migrieren Sie eine lokale Oracle-Datenbank mit Oracle Data Pump zu Amazon RDS for Oracle
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-using-oracle-data-pump"></a>

*Mohan Annam und Brian Motzer, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-using-oracle-data-pump-summary"></a>

Dieses Muster beschreibt, wie eine Oracle-Datenbank mithilfe von Oracle Data Pump von einem lokalen Rechenzentrum zu einer Amazon Relational Database Service (Amazon RDS) für Oracle-DB-Instance migriert wird. 

Das Muster umfasst das Erstellen einer Datendumpdatei aus der Quelldatenbank, das Speichern der Datei in einem Amazon Simple Storage Service (Amazon S3) -Bucket und das anschließende Wiederherstellen der Daten in einer Amazon RDS for Oracle Oracle-DB-Instance. Dieses Muster ist nützlich, wenn Sie bei der Verwendung von AWS Database Migration Service (AWS DMS) für die Migration auf Einschränkungen stoßen. 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-using-oracle-data-pump-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Die erforderlichen Berechtigungen zum Erstellen von Rollen in AWS Identity and Access Management (IAM) und für einen mehrteiligen Amazon S3 S3-Upload
+ Die erforderlichen Berechtigungen zum Exportieren von Daten aus der Quelldatenbank
+ AWS-Befehlszeilenschnittstelle (AWS CLI) [installiert](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html) und [konfiguriert](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html)

**Produktversionen**
+ Oracle Data Pump ist nur für Oracle Database 10g Release 1 (10.1) und spätere Versionen verfügbar.

## Architektur
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-using-oracle-data-pump-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale Oracle-Datenbanken

**Zieltechnologie-Stack**
+ Amazon RDS für Oracle
+ SQL-Client (Oracle SQL Developer)
+ Ein S3-Bucket

**Quell- und Zielarchitektur**

![\[Mehrteiliger Amazon S3 S3-Upload von einer lokalen Oracle-DB zu Amazon RDS mithilfe von Oracle Data Pump.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/d8d6e00f-753e-4ecc-80e5-e60e279a699b/images/1bb6095a-0a95-4469-be0e-7b7bd59b35ae.png)


## Tools
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-using-oracle-data-pump-tools"></a>

**AWS-Services**
+ Mit [AWS Identity and Access Management (IAM)](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) können Sie den Zugriff auf Ihre AWS-Ressourcen sicher verwalten, indem Sie kontrollieren, wer authentifiziert und autorisiert ist, diese zu verwenden. In diesem Muster wird IAM verwendet, um die Rollen und Richtlinien zu erstellen, die für die Migration von Daten von Amazon S3 zu Amazon RDS for Oracle erforderlich sind.
+ [Amazon Relational Database Service (Amazon RDS) für Oracle](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Oracle.html) unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Oracle-Datenbank in der AWS-Cloud.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.

**Andere Tools**
+ Mit [Oracle Data Pump](https://docs.oracle.com/cd/B19306_01/server.102/b14215/dp_overview.htm) können Sie Daten und Metadaten mit hoher Geschwindigkeit von einer Datenbank in eine andere verschieben. In diesem Muster wird Oracle Data Pump verwendet, um die Datendump-Datei (.dmp) auf den Oracle-Server zu exportieren und sie in Amazon RDS for Oracle zu importieren. Weitere Informationen finden Sie unter [Daten in Oracle auf Amazon RDS importieren](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Oracle.Procedural.Importing.html#Oracle.Procedural.Importing.DataPump.S3) in der Amazon RDS-Dokumentation.
+ [Oracle SQL Developer](https://www.oracle.com/database/technologies/appdev/sqldeveloper-landing.html) ist eine integrierte Entwicklungsumgebung, die die Entwicklung und Verwaltung von Oracle-Datenbanken sowohl in herkömmlichen als auch in Cloud-basierten Bereitstellungen vereinfacht. Es interagiert sowohl mit der lokalen Oracle-Datenbank als auch mit Amazon RDS for Oracle, um die für den Export und Import von Daten erforderlichen SQL-Befehle auszuführen.

## Epen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-using-oracle-data-pump-epics"></a>

### Erstellen eines S3-Buckets
<a name="create-an-s3-bucket"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie den Bucket. | Folgen Sie den Anweisungen in der [AWS-Dokumentation](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html), um den S3-Bucket zu erstellen. | AWS-Systemadministrator | 

### Erstellen Sie die IAM-Rolle und weisen Sie Richtlinien zu
<a name="create-the-iam-role-and-assign-policies"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie IAM-Berechtigungen. | Folgen Sie den Anweisungen in der [AWS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/oracle-s3-integration.html#oracle-s3-integration.preparing), um Berechtigungen zu konfigurieren. | AWS-Systemadministrator | 

### Erstellen Sie die Amazon RDS-Ziel-DB-Instance für Oracle und ordnen Sie die Amazon S3 S3-Integrationsrolle zu
<a name="create-the-target-amazon-rds-for-oracle-db-instance-and-associate-the-amazon-s3-integration-role"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die Amazon RDS-Ziel-DB-Instance für Oracle. | Folgen Sie den Anweisungen in der [AWS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_GettingStarted.CreatingConnecting.Oracle.html), um die Amazon RDS for Oracle Oracle-Instance zu erstellen. | AWS-Systemadministrator | 
| Ordnen Sie die Rolle der DB-Instance zu. | Folgen Sie den Anweisungen in der [AWS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/oracle-s3-integration.html#oracle-s3-integration.preparing.instance), um die Rolle der Instance zuzuordnen. | DBA | 

### Erstellen Sie den Datenbankbenutzer in der Zieldatenbank
<a name="create-the-database-user-on-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie den Benutzer. | Stellen Sie von Oracle SQL Developer oder SQL\$1Plus eine Connect zur Amazon RDS for Oracle-Zieldatenbank her und führen Sie den folgenden SQL-Befehl aus, um den Benutzer zu erstellen, in den das Schema importiert werden soll.<pre>create user SAMPLE_SCHEMA identified by <PASSWORD>;<br />grant create session, resource to <USER NAME>;<br />alter user <USER NAME> quota 100M on users;</pre> | DBA | 

### Erstellen Sie die Exportdatei aus der Oracle-Quelldatenbank
<a name="create-the-export-file-from-the-source-oracle-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Datendump-Datei. | Verwenden Sie das folgende Skript, um eine Dump-Datei mit dem Namen `sample.dmp` des `DATA_PUMP_DIR` Verzeichnisses für den Export des `SAMPLE_SCHEMA` Benutzers zu erstellen.<pre>DECLARE<br />    hdnl NUMBER;<br />BEGIN<br />    hdnl := dbms_datapump.open(operation => 'EXPORT', <br />                                job_mode => 'SCHEMA', <br />                                job_name => NULL);<br /><br />    dbms_datapump.add_file( handle => hdnl, <br />                            filename => 'sample.dmp', <br />                            directory => 'DATA_PUMP_DIR', <br />                            filetype => dbms_datapump.ku$_file_type_dump_file);<br /><br />    dbms_datapump.add_file(handle => hdnl, <br />                            filename => 'export.log', <br />                            directory => 'DATA_PUMP_DIR', <br />                            filetype => dbms_datapump.ku$_file_type_log_file);<br /><br />    dbms_datapump.metadata_filter(hdnl, 'SCHEMA_EXPR', 'IN (''SAMPLE_SCHEMA'')');  <br /><br />    dbms_datapump.start_job(hdnl);<br />END;<br />/</pre>Überprüfen Sie die Exportdetails, indem Sie die `export.log` Datei in Ihrem lokalen `DATA_PUMP_DIR` Verzeichnis überprüfen.  | DBA | 

### Laden Sie die Dump-Datei in den S3-Bucket hoch
<a name="upload-the-dump-file-to-the-s3-bucket"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie die Datendump-Datei von der Quelle in den S3-Bucket hoch. | Führen Sie mit der AWS-CLI den folgenden Befehl aus.<pre>aws s3 cp sample.dmp s3://<bucket_created_epic_1>/</pre> | DBA | 

### Laden Sie die Exportdatei aus dem S3-Bucket auf die RDS-Instance herunter
<a name="download-the-export-file-from-the-s3-bucket-to-the-rds-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie die Datendump-Datei auf Amazon RDS herunter | Um die Dump-Datei `sample.dmp` aus dem S3-Bucket in die Amazon RDS for Oracle Oracle-Datenbank zu kopieren, führen Sie den folgenden SQL-Befehl aus. In diesem Beispiel wird die `sample.dmp` Datei aus dem S3-Bucket `my-s3-integration1` in das Oracle-Verzeichnis `DATA_PUMP_DIR` heruntergeladen. Stellen Sie sicher, dass Ihrer RDS-Instance ausreichend Festplattenspeicher zugewiesen ist, um sowohl die Datenbank als auch die Exportdatei aufzunehmen.<pre>-- If you want to download all the files in the S3 bucket remove the p_s3_prefix line.<br /><br />SELECT rdsadmin.rdsadmin_s3_tasks.download_from_s3(<br />      p_bucket_name    =>  'my-s3-integration',    <br />      p_s3_prefix => 'sample.dmp',<br />      p_directory_name =>  'DATA_PUMP_DIR') <br />   AS TASK_ID FROM DUAL;</pre>Der vorherige Befehl gibt eine Task-ID aus. Führen Sie den folgenden Befehl aus, um den Status des Downloads anhand der Daten in der Task-ID zu überprüfen.<pre>SELECT text FROM table(rdsadmin.rds_file_util.read_text_file('BDUMP','dbtask-<task_id>.log'));<br /><br /></pre>Führen Sie den folgenden Befehl aus, um die Dateien im `DATA_PUMP_DIR` Verzeichnis anzuzeigen.<pre>SELECT filename,type,filesize/1024/1024 size_megs,to_char(mtime,'DD-MON-YY HH24:MI:SS') timestamp<br />FROM TABLE(rdsadmin.rds_file_util.listdir(p_directory => upper('DATA_PUMP_DIR'))) order by 4;</pre> | AWS-Systemadministrator | 

### Importieren Sie die Dump-Datei in die Zieldatenbank
<a name="import-the-dump-file-into-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie das Schema und die Daten in Amazon RDS wieder her. | Um die Dump-Datei in das `sample_schema` Datenbankschema zu importieren, führen Sie den folgenden SQL-Befehl von SQL Developer oder SQL\$1Plus aus.<pre>DECLARE<br />hdnl NUMBER;<br />BEGIN<br /><br />hdnl := DBMS_DATAPUMP.OPEN( operation => 'IMPORT', job_mode => 'SCHEMA', job_name=>null);<br /><br />DBMS_DATAPUMP.ADD_FILE( handle => hdnl, filename => 'sample.dmp', directory => 'DATA_PUMP_DIR', filetype => dbms_datapump.ku$_file_type_dump_file);<br /><br />DBMS_DATAPUMP.ADD_FILE( handle    => hdnl, filename  => 'import.log', directory => 'DATA_PUMP_DIR', filetype  => dbms_datapump.ku$_file_type_log_file);<br /><br />DBMS_DATAPUMP.METADATA_FILTER(hdnl,'SCHEMA_EXPR','IN (''SAMPLE_SCHEMA'')');<br /><br />DBMS_DATAPUMP.START_JOB(hdnl);<br /><br />END;<br />/</pre>Führen Sie den folgenden Befehl aus, um die Protokolldatei aus dem Import anzuzeigen.<pre>SELECT text FROM table(rdsadmin.rds_file_util.read_text_file('DATA_PUMP_DIR','import.log'));</pre> | DBA | 

### Entfernen Sie die Dump-Datei aus dem Verzeichnis DATA\$1PUMP\$1DIR
<a name="remove-the-dump-file-from-the-data_pump_dir-directory"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Listet die Exportdateien auf und bereinigt sie. | Führen Sie die folgenden Befehle aus, um die Exportdateien im `DATA_PUMP_DIR` Verzeichnis aufzulisten und zu entfernen.<pre>-- List the files<br />SELECT filename,type,filesize/1024/1024 size_megs,to_char(mtime,'DD-MON-YY HH24:MI:SS') timestamp FROM TABLE(rdsadmin.rds_file_util.listdir(p_directory => upper('DATA_PUMP_DIR'))) order by 4;</pre><pre>-- Remove the files<br />EXEC UTL_FILE.FREMOVE('DATA_PUMP_DIR','sample.dmp');<br />EXEC UTL_FILE.FREMOVE('DATA_PUMP_DIR','import.log');</pre> | AWS-Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-using-oracle-data-pump-resources"></a>
+ [Amazon S3 S3-Integration](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/oracle-s3-integration.html#oracle-s3-integration.preparing)
+ [Erstellen Sie eine DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Tutorials.WebServerDB.CreateDBInstance.html)
+ [Daten in Oracle auf Amazon RDS importieren](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Oracle.Procedural.Importing.html#Oracle.Procedural.Importing.DataPump.S3)
+ [Amazon S3 S3-Dokumentation](https://docs.aws.amazon.com/s3/index.html)
+ [IAM-Dokumentation](https://docs.aws.amazon.com/iam/index.html)
+ [Dokumentation zu Amazon RDS](https://docs.aws.amazon.com/rds/index.html)
+ [Dokumentation zu Oracle Data Pump](https://docs.oracle.com/en/database/oracle/oracle-database/19/sutil/oracle-data-pump-overview.html)
+ [Oracle SQL Developer](https://www.oracle.com/database/sqldeveloper/)

# Migrieren Sie mit pglogical von PostgreSQL auf Amazon EC2 zu Amazon RDS for PostgreSQL
<a name="migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical"></a>

*Rajesh Madiwale, Amazon Web Services*

## Zusammenfassung
<a name="migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical-summary"></a>

**Dieses Muster beschreibt die Schritte für die Migration einer PostgreSQL-Datenbank (Version 9.5 und höher) von Amazon Elastic Compute Cloud (Amazon) zu Amazon Relational Database Service (Amazon RDS EC2) für PostgreSQL mithilfe der pglogischen PostgreSQL-Erweiterung.** Amazon RDS unterstützt jetzt die Erweiterung pglogical für PostgreSQL Version 10.

## Voraussetzungen und Einschränkungen
<a name="migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical-prereqs"></a>

**Voraussetzungen**
+ Wählen Sie den richtigen Typ von Amazon RDS-Instance. Weitere Informationen finden Sie unter [Amazon RDS-Instance-Typen](https://aws.amazon.com/rds/instance-types/). 
+ Stellen Sie sicher, dass die Quell- und Zielversion von PostgreSQL identisch sind.   
+ Installieren und integrieren Sie die [Erweiterung **pglogical** mit PostgreSQL](https://github.com/2ndQuadrant/pglogical) auf Amazon. EC2 

**Produktversionen**
+ PostgreSQL Version 10 und höher auf Amazon RDS, wobei die Funktionen auf Amazon RDS unterstützt werden (siehe [PostgreSQL on Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html#PostgreSQL.Concepts) in der AWS-Dokumentation). Dieses Muster wurde durch die Migration von PostgreSQL 9.5 auf PostgreSQL Version 10 auf Amazon RDS getestet, gilt aber auch für spätere Versionen von PostgreSQL auf Amazon RDS. 

## Architektur
<a name="migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical-architecture"></a>

**Architektur der Datenmigration**

![\[Datenmigrationsarchitektur für PostgreSQL auf Amazon RDS\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/29af3931-48de-499f-9c4b-e10a98e4bba5/images/5f5b906f-dc1a-49a5-ae3f-3e10ae854784.png)


## Tools
<a name="migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical-tools"></a>
+ [https://github.com/2ndQuadrant/pglogical](https://github.com/2ndQuadrant/pglogical)
+ [https://www.postgresql.org/docs/9.6/app-pgrestore.html](https://www.postgresql.org/docs/9.6/app-pgrestore.html)

## Epen
<a name="migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical-epics"></a>

### Migrieren Sie Daten mithilfe der Erweiterung pglogical
<a name="migrate-data-by-using-the-pglogical-extension"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Amazon RDS PostgreSQL-DB-Instance. | Richten Sie eine PostgreSQL-DB-Instance in Amazon RDS ein. Anweisungen finden Sie in der Dokumentation zu [Amazon RDS for PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_GettingStarted.CreatingConnecting.PostgreSQL.html). | DBA | 
| Rufen Sie einen Schema-Dump aus der PostgreSQL-Quelldatenbank ab und stellen Sie ihn in der PostgreSQL-Zieldatenbank wieder her. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical.html) | DBA | 
| Schalten Sie die logische Dekodierung ein. | Setzen Sie in der Amazon RDS-DB-Parametergruppe den `rds.logical_replication` statischen Parameter auf 1. Anweisungen finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html#PostgreSQL.Concepts.General.FeatureSupport.LogicalDecoding). | DBA | 
| Erstellen Sie die pglogische Erweiterung für die Quell- und Zieldatenbank. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical.html) | DBA | 
| Erstellen Sie einen Herausgeber in der PostgreSQL-Quelldatenbank. | Um einen Herausgeber zu erstellen, führen Sie folgenden Befehl aus:<pre>psql -d dbname -p 5432 <<EOF<br />SELECT pglogical.create_node( node_name := 'provider1', dsn := 'host=<ec2-endpoint> port=5432 dbname=source-dbname user=source-dbuser' );<br />EOF</pre> | DBA | 
| Erstellen Sie einen Replikationssatz, fügen Sie Tabellen und Sequenzen hinzu. | Um einen Replikationssatz in der PostgreSQL-Quelldatenbank zu erstellen und dem Replikationssatz Tabellen und Sequenzen hinzuzufügen, führen Sie folgenden Befehl aus:<pre>psql -d dbname -p 5432 <<EOF<br />SELECT pglogical.replication_set_add_all_tables('default', '{public}'::text[],synchronize_data := true);<br />EOF</pre> | DBA | 
| Erstellen Sie einen Abonnenten. | Um einen Abonnenten in der PostgreSQL-Zieldatenbank zu erstellen, führen Sie folgenden Befehl aus:<pre>psql -h <rds-endpoint> -d target-dbname -U target-dbuser  <<EOF<br />SELECT pglogical.create_node(<br />    node_name := 'subscriber1',<br />    dsn := 'host=<rds-endpoint> port=5432 dbname=target-dbname password=postgres user=target-dbuser'<br />);<br />EOF</pre> | DBA | 
| Erstellen Sie ein Abonnement. | Um ein Abonnement für die PostgreSQL-Zieldatenbank zu erstellen, führen Sie folgenden Befehl aus:<pre>psql -h <rds-endpoint> -d target -U postgres  <<EOF<br />SELECT pglogical.create_subscription(<br /> subscription_name := 'subscription1',<br /> replication_sets := array['default'],<br />    provider_dsn := 'host=<ec2-endpoint> port=5432 dbname=<source-dbname> password=<password> user=source-dbuser'<br />);</pre> | DBA | 

### Bestätigen Sie Ihre Daten
<a name="validate-your-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Quell- und Zieldatenbanken. | Überprüfen Sie die Quell- und Zieldatenbanken, um sicherzustellen, dass die Daten erfolgreich repliziert wurden. Sie können eine grundlegende Validierung durchführen, indem `select count(1)` Sie die Quell- und Zieltabellen verwenden. | DBA | 

## Zugehörige Ressourcen
<a name="migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical-resources"></a>
+ [Amazon RDS](https://aws.amazon.com/rds/)
+ [Logische Replikation für PostgreSQL auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html#PostgreSQL.Concepts.General.FeatureSupport.LogicalReplication) (Amazon RDS-Dokumentation)
+ [logisch (Repository)](https://github.com/2ndQuadrant/pglogical) GitHub 
+ [Einschränkungen von pglogical](https://github.com/2ndQuadrant/pglogical#limitations-and-restrictions) (README-Datei des Projektarchivs) GitHub 
+ [Migration von PostgreSQL von lokal oder Amazon EC2 zu Amazon RDS mithilfe logischer Replikation](https://aws.amazon.com/blogs/database/migrating-postgresql-from-on-premises-or-amazon-ec2-to-amazon-rds-using-logical-replication/) (AWS-Datenbank-Blog)

# Migrieren Sie eine lokale PostgreSQL-Datenbank zu Aurora PostgreSQL
<a name="migrate-an-on-premises-postgresql-database-to-aurora-postgresql"></a>

*Baji Shaik und Jitender Kumar, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-postgresql-database-to-aurora-postgresql-summary"></a>

Die Amazon Aurora PostgreSQL-Compatible Edition kombiniert die Leistung und Verfügbarkeit kommerzieller High-End-Datenbanken mit der Einfachheit und Kosteneffizienz von Open-Source-Datenbanken. Aurora bietet diese Vorteile durch die Skalierung des Speichers auf drei Availability Zones in derselben AWS-Region und unterstützt bis zu 15 Read Replica-Instances zur Skalierung von Lese-Workloads und zur Bereitstellung von Hochverfügbarkeit innerhalb einer einzigen Region. Mithilfe einer globalen Aurora-Datenbank können Sie PostgreSQL-Datenbanken in bis zu fünf Regionen replizieren, um den Fernlesezugriff und die Notfallwiederherstellung im Falle eines Regionsausfalls zu ermöglichen. Dieses Muster beschreibt die Schritte zur Migration einer lokalen PostgreSQL-Quelldatenbank zu einer Aurora PostgreSQL-kompatiblen Datenbank. [Das Muster umfasst zwei Migrationsoptionen: die Verwendung von AWS Data Migration Service (AWS DMS) oder die Verwendung nativer PostgreSQL-Tools (wie [pg\$1dump, [pg\$1restore](https://www.postgresql.org/docs/current/app-pgrestore.html)](https://www.postgresql.org/docs/current/app-pgdump.html) und psql) oder Tools von Drittanbietern.](https://www.postgresql.org/docs/current/app-psql.html) 

Die in diesem Muster beschriebenen Schritte gelten auch für PostgreSQL-Zieldatenbanken auf Amazon Relational Database Service (Amazon RDS) - und Amazon Elastic Compute Cloud (Amazon EC2) -Instances.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-postgresql-database-to-aurora-postgresql-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine PostgreSQL-Quelldatenbank in einem lokalen Rechenzentrum
+ [Eine Aurora PostgreSQL-kompatible DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_GettingStartedAurora.CreatingConnecting.AuroraPostgreSQL.html) oder eine [Amazon RDS for](https://aws.amazon.com/getting-started/hands-on/create-connect-postgresql-db/) PostgreSQL DB-Instance

**Einschränkungen**
+ Die Größenbeschränkungen für Datenbanken sind 64 TB für Amazon RDS for PostgreSQL und 128 TB für Aurora PostgreSQL-kompatibel.
+ Wenn Sie die AWS DMS-Migrationsoption verwenden, lesen Sie sich die [AWS-DMS-Einschränkungen für die Verwendung einer PostgreSQL-Datenbank](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.PostgreSQL.html#CHAP_Source.PostgreSQL.Limitations) als Quelle durch.

**Produktversionen**
+ Informationen zur Unterstützung von PostgreSQL-Haupt- und Nebenversionen in Amazon RDS finden Sie unter [Amazon RDS for PostgreSQL PostgreSQL-Updates](https://docs.aws.amazon.com/AmazonRDS/latest/PostgreSQLReleaseNotes/postgresql-versions.html) in der Amazon RDS-Dokumentation.
+ Informationen zur PostgreSQL-Unterstützung in Aurora finden Sie unter [Amazon Aurora PostgreSQL-Updates](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraPostgreSQLReleaseNotes/AuroraPostgreSQL.Updates.html) in der Aurora-Dokumentation.
+ Wenn Sie die AWS DMS-Migrationsoption verwenden, finden Sie in der AWS DMS-Dokumentation Informationen zu den [unterstützten PostgreSQL-Versionen](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.PostgreSQL.html).

## Architektur
<a name="migrate-an-on-premises-postgresql-database-to-aurora-postgresql-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale PostgreSQL-Datenbank

**Zieltechnologie-Stack**
+ Aurora PostgreSQL-kompatible DB-Instance

**Quellarchitektur**

![\[Quellarchitektur für die lokale PostgreSQL-Datenbank\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/82114165-8102-44a2-8b12-485ac9eb8989/images/a8621ad3-781b-45a9-86a8-d0b0ec5c79ea.png)


**Zielarchitektur**

![\[Zielarchitektur für die PostgreSQL-Datenbank auf Amazon Aurora\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/82114165-8102-44a2-8b12-485ac9eb8989/images/fc2ec0cb-7b9b-4cc0-b70c-40e47c2f4c45.png)


**Architektur der Datenmigration**

*Verwenden von AWS DMS*

![\[Migrieren einer lokalen PostgreSQL-Datenbank zu Aurora mithilfe von AWS DMS\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/82114165-8102-44a2-8b12-485ac9eb8989/images/5336adb4-e9eb-47d0-a5b5-d149261b1638.png)


*Verwendung nativer PostgreSQL-Tools*

![\[Migrieren einer lokalen PostgreSQL-Datenbank zu Aurora mithilfe von pg_dump und pg_restore\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/82114165-8102-44a2-8b12-485ac9eb8989/images/3c6fb533-45ff-443e-bfb1-97e60cbdd583.png)


## Tools
<a name="migrate-an-on-premises-postgresql-database-to-aurora-postgresql-tools"></a>
+ [AWS Database Migration Service (AWS DMS)](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) unterstützt Sie bei der Migration von Datenspeichern in die AWS-Cloud oder zwischen Kombinationen von Cloud- und lokalen Konfigurationen. Dieser Service unterstützt verschiedene Quellen und Zieldatenbanken. Informationen zur Validierung der Versionen und Editionen der PostgreSQL-Quell- und Zieldatenbank, die für die Verwendung mit AWS DMS unterstützt werden, finden Sie unter [Verwenden einer PostgreSQL-Datenbank als](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.PostgreSQL.html) AWS-DMS-Quelle. Wir empfehlen Ihnen, die neueste Version von AWS DMS zu verwenden, um die umfassendste Version von Versionen und Funktionen zu erhalten.
+ [https://www.postgresql.org/docs/current/app-pgrestore.html](https://www.postgresql.org/docs/current/app-pgrestore.html)

## Epen
<a name="migrate-an-on-premises-postgresql-database-to-aurora-postgresql-epics"></a>

### Analysieren Sie die Migration
<a name="analyze-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Quell- und Zieldatenbankversionen. | Wenn Sie AWS DMS verwenden, stellen Sie sicher, dass Sie eine [unterstützte Version von PostgreSQL](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.PostgreSQL.html) verwenden.  | DBA | 
| Identifizieren Sie den Speichertyp und die Kapazitätsanforderungen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-postgresql-database-to-aurora-postgresql.html) | DBA, Systemadministrator | 
| Wählen Sie den richtigen Instanztyp, die Kapazität, die Speicherfunktionen und die Netzwerkfunktionen aus. | Ermitteln Sie die Rechenanforderungen der Zieldatenbank-Instance. Prüfen Sie bekannte Leistungsprobleme, die möglicherweise zusätzliche Aufmerksamkeit erfordern. Berücksichtigen Sie die folgenden Faktoren, um den geeigneten Instance-Typ zu bestimmen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-postgresql-database-to-aurora-postgresql.html)Weitere Informationen finden Sie unter [Aurora-DB-Instance-Klassen](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Concepts.DBInstanceClass.html) in der Aurora-Dokumentation. | DBA, Systemadministrator | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken. | Ermitteln Sie die geeigneten Sicherheitsgruppen, die es der Anwendung ermöglichen würden, mit der Datenbank zu kommunizieren. | DBA, Systemadministrator | 
| Identifizieren Sie die Strategie zur Anwendungsmigration. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-postgresql-database-to-aurora-postgresql.html) | DBA, Besitzer der App, Systemadministrator | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine VPC. | Erstellen Sie eine neue Virtual Private Cloud (VPC) für die Zieldatenbank-Instance. | Systemadministrator | 
| Erstellen Sie Sicherheitsgruppen. | Erstellen Sie eine Sicherheitsgruppe innerhalb der VPC (wie im vorherigen Epic festgelegt), um eingehende Verbindungen zur Datenbank-Instance zuzulassen.  | Systemadministrator | 
| Konfigurieren und starten Sie den Aurora-DB-Cluster. | Erstellen Sie die Zieldatenbank-Instance mit der neuen VPC und Sicherheitsgruppe und starten Sie die Instance. | Systemadministrator | 

### Daten migrieren ‒ Option 1 (mit AWS DMS)
<a name="migrate-data-option-1-using-aws-dms"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Führen Sie die Schritte vor der Migration durch. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-postgresql-database-to-aurora-postgresql.html) | DBA | 
| Schließen Sie die Migrationsschritte ab. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-postgresql-database-to-aurora-postgresql.html) | DBA | 
| Daten validieren. | Um sicherzustellen, dass Ihre Daten korrekt von der Quelle zum Ziel migriert wurden, befolgen Sie die [Schritte zur Datenvalidierung](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Validating.html) in der AWS DMS-Dokumentation. | DBA | 

### Daten migrieren ‒ Option 2 (mit pg\$1dump und pg\$1restore)
<a name="migrate-data-option-2-using-pg_dump-and-pg_restore"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie die Quelldatenbank vor. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-postgresql-database-to-aurora-postgresql.html)Weitere Informationen finden Sie in der [pg\$1dump-Dokumentation](https://www.postgresql.org/docs/current/app-pgdump.html) und in der [exemplarischen Vorgehensweise in der AWS](https://docs.aws.amazon.com/dms/latest/sbs/chap-manageddatabases.postgresql-rds-postgresql-full-load-pd_dump.html) DMS-Dokumentation. | DBA | 
| Bereiten Sie die Zieldatenbank vor. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-postgresql-database-to-aurora-postgresql.html)Weitere Informationen finden Sie in der Dokumentation zu [pg\$1restore](https://www.postgresql.org/docs/current/app-pgrestore.html) und in der [exemplarischen Vorgehensweise](https://docs.aws.amazon.com/dms/latest/sbs/chap-manageddatabases.postgresql-rds-postgresql-full-load-pd_dump.html) in der AWS DMS-Dokumentation. | DBA | 
| Daten validieren. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-postgresql-database-to-aurora-postgresql.html) | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der Strategie zur Anwendungsmigration. | Implementieren Sie die Strategie zur Anwendungsmigration, die Sie im ersten Epic erstellt haben. | DBA, App-Besitzer, Systemadministrator | 

### Wechseln Sie zur Zieldatenbank
<a name="cut-over-to-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die Anwendungsclients auf die neue Infrastruktur um. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-postgresql-database-to-aurora-postgresql.html) | DBA, App-Besitzer, Systemadministrator | 
| Wenn Sie die Migration rückgängig machen müssen. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-postgresql-database-to-aurora-postgresql.html) | DBA, Besitzer der App | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Ressourcen herunterfahren. | Fahren Sie die temporären AWS-Ressourcen herunter. | DBA, Systemadministrator | 
| Dokumente validieren. | Überprüfen und validieren Sie die Projektdokumente. | DBA, App-Besitzer, Systemadministrator | 
| Sammeln Sie Metriken. | Erfassen Sie Kennzahlen zum Zeitpunkt der Migration, zu den prozentualen Einsparungen bei den manuellen Kosten im Vergleich zu den Werkzeugkosten usw. | DBA, App-Besitzer, Systemadministrator | 
| Schließt das Projekt. | Schließen Sie das Projekt und geben Sie Feedback. | DBA, App-Besitzer, Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-postgresql-database-to-aurora-postgresql-resources"></a>

**Referenzen**
+ [AWS-Datenmigrationsservice](https://aws.amazon.com/dms/)
+ [VPCs und Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/USER_VPC.html)
+ [Amazon-Aurora-Preise](https://aws.amazon.com/rds/aurora/pricing/)
+ [Verwenden einer PostgreSQL-Datenbank als AWS-DMS-Quelle](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.PostgreSQL.html)
+ [So erstellen Sie eine AWS DMS-Replikationsinstanz](https://aws.amazon.com/premiumsupport/knowledge-center/create-aws-dms-replication-instance/)
+ [So erstellen Sie Quell- und Zielendpunkte mit AWS DMS](https://aws.amazon.com/premiumsupport/knowledge-center/create-source-target-endpoints-aws-dms/)

**Weitere Ressourcen**
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Exemplarische Vorgehensweisen zur Datenmigration step-by-step](https://docs.aws.amazon.com/dms/latest/sbs/DMS-SBS-Welcome.html)
+ [Amazon Aurora Aurora-Ressourcen](https://aws.amazon.com/rds/aurora/getting-started/)

# Migrieren Sie eine lokale Microsoft SQL Server-Datenbank zu Microsoft SQL Server auf Amazon EC2 unter Linux
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-microsoft-sql-server-on-amazon-ec2-running-linux"></a>

*Tirumala Dasari, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-microsoft-sql-server-on-amazon-ec2-running-linux-summary"></a>

Dieses Muster beschreibt, wie Sie mithilfe von Sicherungs- und Wiederherstellungsdienstprogrammen von einer lokalen Microsoft SQL Server-Datenbank, die unter Microsoft Windows ausgeführt wird, zu Microsoft SQL Server auf einer Amazon Elastic Compute Cloud (Amazon EC2) Linux-Instance migrieren.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-microsoft-sql-server-on-amazon-ec2-running-linux-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Amazon EC2 Linux AMI (Amazon Machine Image) mit Microsoft SQL Server
+ AWS Direct Connect zwischen lokalem Windows und Microsoft SQL Server auf der Linux-Instance EC2 

## Architektur
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-microsoft-sql-server-on-amazon-ec2-running-linux-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale Microsoft SQL Server-Datenbank

**Zieltechnologie-Stack**
+  EC2 Linux-Instanz mit einer Microsoft SQL Server-Datenbank

**Architektur der Datenbankmigration**

![\[Architekturdiagramm zur Migration einer lokalen SQL Server-Datenbank auf eine EC2 Linux-Instanz.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/f331ad15-2d41-4087-a6d1-60e3443e2acf/images/f50a779a-ce5d-44b1-8d37-dedd6400a12c.png)


## Tools
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-microsoft-sql-server-on-amazon-ec2-running-linux-tools"></a>
+ **WinSCP** - Mit diesem Tool können Windows-Benutzer Dateien problemlos mit Linux-Benutzern teilen.
+ **Sqlcmd** — Mit diesem Befehlszeilenprogramm können Sie T-SQL-Anweisungen oder Batches an lokale und Remoteinstanzen von SQL Server senden. Das Hilfsprogramm ist äußerst nützlich für sich wiederholende Datenbankaufgaben wie Batchverarbeitung oder Komponententests.

## Epen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-microsoft-sql-server-on-amazon-ec2-running-linux-epics"></a>

### Bereiten Sie die EC2 Linux-Instanz mit SQL Server vor
<a name="prepare-the-ec2-linux-instance-with-sql-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Wählen Sie ein AMI aus, das das Linux-Betriebssystem bereitstellt und Microsoft SQL Server enthält. |  | Systemadministrator | 
| Konfigurieren Sie das AMI, um eine EC2 Instanz zu erstellen. |  | Sysadmin | 
| Erstellen Sie Regeln für eingehenden und ausgehenden Datenverkehr für Sicherheitsgruppen. |  | Sysadmin | 
| Konfigurieren Sie die EC2 Linux-Instanz für eine Microsoft SQL Server-Datenbank. |  | DBA | 
| Erstellen Sie Benutzer und gewähren Sie Berechtigungen wie in der Quelldatenbank. |  | Appowner, DBA | 
| Installieren Sie die SQL Server-Tools und das Hilfsprogramm sqlcmd auf der Linux-Instanz. EC2  |  | DBA | 

### Sichern Sie die Datenbank und verschieben Sie die Sicherungsdatei auf die Linux-Instanz EC2
<a name="back-up-the-database-and-move-backup-file-to-linux-ec2-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Sichern Sie die lokale SQL Server-Datenbank. |  | DBA | 
| Installieren Sie WinSCP auf Microsoft SQL Server. |  | DBA | 
| Verschieben Sie die Sicherungsdatei auf die EC2 Linux-Instanz, auf der Microsoft SQL Server ausgeführt wird. |  | DBA | 

### Stellen Sie die Datenbank auf einer EC2 Linux-Instanz wieder her, auf der SQL Server ausgeführt wird
<a name="restore-the-database-on-linux-ec2-instance-running-sql-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die Datenbank mithilfe des Dienstprogramms sqlcmd aus der Datenbank-Backup-Datei wieder her. |  | DBA | 
| Validieren Sie Datenbankobjekte und Daten. |  | Entwickler, Testingenieur | 

### Wechseln Sie von Windows SQL Server zu Windows SQL Server auf einer EC2 Linux-Instanz
<a name="cut-over-from-windows-sql-server-to-windows-sql-server-on-linux-ec2-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie Datenbankobjekte und Daten. |  | Entwickler, Testingenieur | 
| Wechseln Sie von der lokalen Microsoft SQL Server-Datenbank zur EC2 Linux-Instanz, auf der Microsoft SQL Server ausgeführt wird. |  | DBA | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-microsoft-sql-server-on-amazon-ec2-running-linux-resources"></a>
+ [So konfigurieren Sie SQL Server 2017 auf Amazon Linux und Ubuntu AMIs](https://aws.amazon.com/blogs/database/configuring-sql-server-2017-on-amazon-linux-2-and-ubuntu-amis/) 
+ [Installation von SQL-Tools auf einer Linux-Instanz](https://docs.microsoft.com/en-us/sql/linux/sql-server-linux-setup-tools?view=sql-server-2017#RHEL) 
+ [Backup und Wiederherstellung von einer lokalen Microsoft SQL Server-Datenbank auf Microsoft SQL Server auf einer Linux-Instanz EC2 ](https://docs.microsoft.com/en-us/sql/linux/sql-server-linux-migrate-restore-database?view=sql-server-2017#create-a-backup-on-windows) 

# Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mithilfe von Verbindungsservern zu Amazon RDS for SQL Server
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-linked-servers"></a>

*Kevin Yung, Viqash Adwani und Vishal Singh, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-linked-servers-summary"></a>

Verbindungsserver ermöglichen es Microsoft SQL Server, SQL-Anweisungen auf anderen Instanzen von Datenbankservern auszuführen. Dieses Muster beschreibt, wie Sie Ihre lokale Microsoft SQL Server-Datenbank zu Amazon Relational Database Service (Amazon RDS) für Microsoft SQL Server migrieren können, um geringere Kosten und höhere Verfügbarkeit zu erzielen. Derzeit unterstützt Amazon RDS for Microsoft SQL Server keine Verbindungen außerhalb eines Amazon Virtual Private Cloud (Amazon VPC) -Netzwerks. 

Sie können dieses Muster verwenden, um die folgenden Ziele zu erreichen:
+ Um Microsoft SQL Server auf Amazon RDS for Microsoft SQL Server zu migrieren, ohne die Funktionen des Verbindungsservers zu beeinträchtigen.
+ Um verknüpfte Microsoft SQL Server in verschiedenen Wellen zu priorisieren und zu migrieren.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-linked-servers-prerequisites-and-limitations"></a>

**Voraussetzungen**
+ Prüfen Sie, ob [Microsoft SQL Server auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_SQLServer.html) die von Ihnen benötigten Funktionen unterstützt. 
+ Stellen Sie sicher, dass Sie entweder [Amazon RDS for Microsoft SQL Server mit Standardsortierungen oder Sortierungen auf Datenbankebene verwenden können](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Appendix.SQLServer.CommonDBATasks.Collation.html). 

## Architektur
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-linked-servers-architecture"></a>

**Quelltechnologie-Stack**
+ Lokale Datenbanken (Microsoft SQL Server)

 **Zieltechnologie-Stack**
+ Amazon RDS für SQL Server

**Architektur des Quellzustands**

![\[Diagram showing data replication between two data centers with primary and secondary SQL servers.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/95234758-cb8b-46e5-afd2-3d4aaf6ed668/images/776b453a-7fa0-43fd-b1ca-fb9e5cc21820.png)


 

 

 

 

 

 

 

 

 

 

 

 

**Architektur des Zielzustands**

Im Zielstatus migrieren Sie Microsoft SQL Server mithilfe von Verbindungsservern zu Amazon RDS for Microsoft SQL Server. Diese Architektur verwendet einen Network Load Balancer, um den Datenverkehr von Amazon RDS for Microsoft SQL Server an lokale Server weiterzuleiten, auf denen Microsoft SQL Server ausgeführt wird. Das folgende Diagramm zeigt die Reverse-Proxy-Fähigkeit für den Network Load Balancer.

![\[AWS Cloud architecture with RDS SQL Server instances in two availability zones and on-premises databases.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/95234758-cb8b-46e5-afd2-3d4aaf6ed668/images/6bdbdfbf-b048-4fbd-acef-0aeb826edb50.png)


 

## Tools
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-linked-servers-tools"></a>
+ AWS CloudFormation
+ Network Load Balancer 
+ Amazon RDS for SQL Server in mehreren Availability Zones (Multi-AZs)
+ AWS Database Migration Service (AWS DMS) 

## Epen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-linked-servers-epics"></a>

### Erstellen Sie eine Landingzone-VPC
<a name="create-a-landing-zone-vpc"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie die CIDR-Zuteilung. |  | AWS SysAdmin | 
| Erstellen einer Virtual Private Cloud (VPC). |  | AWS SysAdmin | 
| Erstellen Sie die VPC-Subnetze. |  | AWS SysAdmin | 
| Erstellen Sie die Subnetz-Zugriffskontrolllisten (ACLs). |  | AWS SysAdmin | 
| Erstellen Sie die Subnetz-Routing-Tabellen. |  | AWS SysAdmin | 
| Stellen Sie eine Verbindung mit AWS Direct Connect oder AWS Virtual Private Network (VPN) her. |  | AWS SysAdmin | 

### Migrieren Sie die Datenbank zu Amazon RDS
<a name="migrate-the-database-to-amazon-rds"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Amazon RDS for Microsoft SQL Server Server-DB-Instance. |  | AWS SysAdmin | 
| Erstellen Sie eine AWS DMS-Replikations-Instance. |  | AWS SysAdmin | 
| Erstellen Sie die Quell- und Zieldatenbank-Endpunkte in AWS DMS. |  | AWS SysAdmin | 
| Erstellen Sie die Migrationsaufgabe und setzen Sie die kontinuierliche Replikation nach einer Volllast auf ON. |  | AWS SysAdmin | 
| Fordern Sie eine Firewall-Änderung an, damit Amazon RDS for Microsoft SQL Server auf die lokalen SQL Server-Datenbanken zugreifen kann. |  | AWS SysAdmin | 
| Erstellen Sie einen Network Load Balancer. |  | AWS SysAdmin | 
| Erstellen Sie eine Zielgruppe, die auf die Datenbankserver in Ihrem Rechenzentrum abzielt | Wir empfehlen, Hostnamen in der Zielkonfiguration zu verwenden, um Failover-Ereignisse im Rechenzentrum (DC) einzubeziehen. | AWS SysAdmin | 
| Führen Sie die SQL-Anweisung für die Einrichtung des Verbindungsservers aus. | Führen Sie die SQL-Anweisungen zum Hinzufügen eines Verbindungsservers mithilfe des Microsoft SQL-Managementtools für die Amazon RDS for Microsoft SQL Server-DB-Instance aus. Legen Sie in der SQL-Anweisung @datasrc fest, um den Network Load Balancer Balancer-Hostnamen zu verwenden. Fügen Sie Anmeldeinformationen für verknüpfte Server hinzu, indem Sie das Microsoft SQL-Management-Tool für die Amazon RDS for Microsoft SQL Server-DB-Instance verwenden. | AWS SysAdmin | 
| Testen und validieren Sie die SQL Server-Funktionen. |  | AWS SysAdmin | 
| Erstellen Sie eine Umstellung. |  | AWS SysAdmin | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-linked-servers-related-resources"></a>
+ [Allgemeine Verwaltungsaufgaben für Microsoft SQL Server auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_SQLServer.html#SQLServer.Concepts.General)
+ [Sortierungen und Zeichensätze für Microsoft SQL Server](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Appendix.SQLServer.CommonDBATasks.Collation.html) 
+ [Dokumentation zum Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+ [Implementieren von Verbindungsservern mit Amazon RDS for Microsoft SQL Server (Blogbeitrag)](https://aws.amazon.com/blogs/database/implement-linked-servers-with-amazon-rds-for-microsoft-sql-server/)

# Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mit systemeigenen Sicherungs- und Wiederherstellungsmethoden zu Amazon RDS for SQL Server
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods"></a>

*Tirumala Dasari, David Queiroz und Vishal Singh, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods-summary"></a>

Dieses Muster beschreibt, wie eine lokale Microsoft SQL Server-Datenbank auf eine Amazon Relational Database Service (Amazon RDS) für SQL Server-DB-Instance migriert wird (homogene Migration). Der Migrationsprozess basiert auf systemeigenen Sicherungs- und Wiederherstellungsmethoden von SQL Server. Es verwendet SQL Server Management Studio (SSMS), um eine Datenbank-Backup-Datei zu erstellen, und einen Amazon Simple Storage Service (Amazon S3) -Bucket, um die Sicherungsdatei zu speichern, bevor sie in Amazon RDS for SQL Server wiederhergestellt wird.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto.
+ AWS Identity and Access Management (IAM) -Rollenrichtlinien für den Zugriff auf den S3-Bucket und die Amazon RDS for SQL Server-DB-Instance.

**Einschränkungen**
+ Der in diesem Muster beschriebene Prozess migriert nur die Datenbank. SQL-Anmeldungen oder Datenbankbenutzer, einschließlich aller SQL Server-Agent-Jobs, werden nicht migriert, da sie zusätzliche Schritte erfordern.

**Produktversionen**
+ SQL Server 2012-2017. Die aktuelle Liste der unterstützten Versionen und Funktionen finden Sie in der AWS-Dokumentation unter [Microsoft SQL Server on Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_SQLServer.html#SQLServer.Concepts.General.FeatureSupport).

## Architektur
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods-architecture"></a>

**Quelltechnologie-Stack**
+ Eine lokale Microsoft SQL Server-Datenbank

**Zieltechnologie-Stack**
+ Amazon RDS for SQL Server Server-DB-Instance

**Architektur** der **Datenmigration**

![\[Architektur für die Migration einer lokalen SQL Server-DB zu einer Amazon RDS for SQL Server-DB-Instance.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/c2dcd6ab-deb1-4d5e-b3c5-3bf48c02ca4e/images/29f90473-6dd4-4574-bfbd-5c6a0481c40e.png)


## Tools
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods-tools"></a>
+ Microsoft SQL Server Management Studio (SSMS) ist eine integrierte Umgebung für die Verwaltung der SQL Server-Infrastruktur. Es bietet eine Benutzeroberfläche und eine Gruppe von Tools mit umfangreichen Skripteditoren, die mit SQL Server interagieren.

## Epen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods-epics"></a>

### Erstellen Sie eine Amazon RDS for SQL Server-DB-Instance
<a name="create-an-amazon-rds-for-sql-server-db-instance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Wählen Sie SQL Server als Datenbank-Engine in Amazon RDS for SQL Server aus. |  | DBA | 
| Wählen Sie die SQL Server Express Edition. |  | DBA | 
| Geben Sie Datenbankdetails an. | Weitere Informationen zum Erstellen einer DB-Instance finden Sie in der [Amazon RDS-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_CreateDBInstance.html). | DBA, Besitzer der App | 

### Erstellen Sie eine Sicherungsdatei aus der lokalen SQL Server-Datenbank
<a name="create-a-backup-file-from-the-on-premises-sql-server-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie über SSMS eine Connect zur lokalen SQL Server-Datenbank her. |  | DBA | 
| Erstellen Sie eine Sicherungskopie der Datenbank. | Anweisungen finden Sie in der [SSMS-Dokumentation](https://learn.microsoft.com/en-us/sql/ssms/sql-server-management-studio-ssms). | DBA, Besitzer der App | 

### Laden Sie die Sicherungsdatei auf Amazon S3 hoch
<a name="upload-the-backup-file-to-amazon-s3"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen eines Buckets in Amazon S3. | Weitere Informationen finden Sie in der [Amazon S3-Dokumentation](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html). | DBA | 
| Laden Sie die Sicherungsdatei in den S3-Bucket hoch. | Weitere Informationen finden Sie in der [Amazon S3-Dokumentation](https://docs.aws.amazon.com/AmazonS3/latest/userguide/upload-objects.html). | SysOps Administrator | 

### Stellen Sie die Datenbank in Amazon RDS for SQL Server wieder her
<a name="restore-the-database-in-amazon-rds-for-sql-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fügen Sie die Optionsgruppe zu Amazon RDS hinzu. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods.html)Weitere Informationen finden Sie in der [Dokumentation zu Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_WorkingWithOptionGroups.html). | SysOps Administrator | 
| Stellen Sie die Datenbank wieder her. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods.html) | DBA | 

### Validieren Sie die Zieldatenbank
<a name="validate-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie Objekte und Daten. | Validieren Sie die Objekte und Daten zwischen der Quelldatenbank und Amazon RDS for SQL Server.Bei dieser Aufgabe wird nur die Datenbank migriert. Logins und Jobs werden nicht migriert. | Besitzer der App, DBA | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Leiten Sie den Anwendungsverkehr um. | Leiten Sie nach der Validierung den Anwendungsdatenverkehr zur Amazon RDS for SQL Server-DB-Instance um. | Besitzer der App, DBA | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods-resources"></a>
+ [Amazon S3 S3-Dokumentation](https://docs.aws.amazon.com/s3/) 
+ [Dokumentation zu Amazon RDS for SQL Server](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_SQLServer.html) 
+ [Optionen für die Microsoft SQL Server Database Engine](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Appendix.SQLServer.Options.html) 

# Migrieren Sie eine Microsoft SQL Server-Datenbank mithilfe von AWS DMS und AWS SCT zu Aurora MySQL
<a name="migrate-a-microsoft-sql-server-database-to-aurora-mysql-by-using-aws-dms-and-aws-sct"></a>

*Mark Szalkiewicz und Pavan Pusuluri, Amazon Web Services*

## Zusammenfassung
<a name="migrate-a-microsoft-sql-server-database-to-aurora-mysql-by-using-aws-dms-and-aws-sct-summary"></a>

Dieses Muster beschreibt, wie eine Microsoft SQL Server-Datenbank, die sich entweder lokal oder auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance befindet, zu Amazon Aurora MySQL migriert wird. Das Muster verwendet AWS Database Migration Service (AWS DMS) und AWS Schema Conversion Tool (AWS SCT) für die Datenmigration und Schemakonvertierung. 

## Voraussetzungen und Einschränkungen
<a name="migrate-a-microsoft-sql-server-database-to-aurora-mysql-by-using-aws-dms-and-aws-sct-prerequisites-and-limitations"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine Microsoft SQL Server-Quelldatenbank in einem lokalen Rechenzentrum oder auf einer Instanz EC2 
+ Java Database Connectivity (JDBC) -Treiber für AWS SCT-Konnektoren, die entweder auf einem lokalen Computer oder auf einer EC2 Instanz installiert sind, auf der AWS SCT installiert ist 

 

**Einschränkungen**
+ Größenbeschränkung der Datenbank: 64 TB

**Produktversionen**
+ Microsoft SQL Server 2008, 2008R2, 2012, 2014, 2016 und 2017 für die Enterprise-, Standard-, Workgroup- und Developer-Editionen. Die Web- und Express-Editionen werden von AWS DMS nicht unterstützt. Die aktuelle Liste der unterstützten Versionen finden Sie unter [Verwenden einer Microsoft SQL Server-Datenbank als Quelle für AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.SQLServer.html). Wir empfehlen Ihnen, die neueste Version von AWS DMS zu verwenden, um die umfassendste Version von Versionen und Funktionen zu erhalten. Informationen zu den von AWS SCT unterstützten Microsoft SQL Server-Versionen finden Sie in der [AWS SCT-Dokumentation.](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ MySQL-Versionen 5.5, 5.6 und 5.7. Die aktuelle Liste der unterstützten Versionen finden Sie unter [Verwenden einer MySQL-kompatiblen Datenbank als Ziel für](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.MySQL.html) AWS DMS.

## Architektur
<a name="migrate-a-microsoft-sql-server-database-to-aurora-mysql-by-using-aws-dms-and-aws-sct-architecture"></a>

**Quelltechnologie-Stack**

Eine der beiden folgenden Komponenten: 
+ Eine lokale Microsoft SQL Server-Datenbank
+ Eine Microsoft SQL Server-Datenbank auf einer EC2 Instanz

**Zieltechnologie-Stack**
+ Aurora MySQL

**Architektur der Datenmigration**
+ Aus einer Microsoft SQL Server-Datenbank, die in der AWS-Cloud läuft 

![\[AWS Cloud architecture showing VPC with private subnet containing SQL Server and Aurora MySQL databases.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/e2de4507-82a8-4bd6-b25b-1e830b197b9f/images/c675ada4-e92c-4ddb-b49f-69668f532504.png)

+ Aus einer Microsoft SQL Server-Datenbank, die in einem lokalen Rechenzentrum läuft

![\[AWS Cloud architecture diagram showing on-premises to cloud migration using AWS SCT, DMS, and Aurora MySQL.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/e2de4507-82a8-4bd6-b25b-1e830b197b9f/images/b6ce0199-fc56-4bf2-a8cc-67de161e3cf0.png)


## Tools
<a name="migrate-a-microsoft-sql-server-database-to-aurora-mysql-by-using-aws-dms-and-aws-sct-tools"></a>
+ **AWS DMS** — [AWS Data Migration Service](https://docs.aws.amazon.com/dms/latest/sbs/DMS-SBS-Welcome.html) (AWS DMS) unterstützt Sie bei der Migration Ihrer Daten zu und von weit verbreiteten kommerziellen und Open-Source-Datenbanken, darunter Oracle, SQL Server, MySQL und PostgreSQL. Sie können AWS DMS verwenden, um Ihre Daten in die AWS Cloud, zwischen lokalen Instances (über eine AWS Cloud-Einrichtung) oder zwischen Kombinationen aus Cloud und lokalen Einrichtungen zu migrieren.
+ **AWS SCT** — Das [AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) (AWS SCT) vereinfacht heterogene Datenbankmigrationen, indem das Quelldatenbankschema und ein Großteil des benutzerdefinierten Codes automatisch in ein mit der Zieldatenbank kompatibles Format konvertiert werden.

## Epen
<a name="migrate-a-microsoft-sql-server-database-to-aurora-mysql-by-using-aws-dms-and-aws-sct-epics"></a>

### Bereite dich auf die Migration vor
<a name="prepare-for-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie die Quell- und Zieldatenbankversion und die Engine. |  | DBA | 
| Erstellen Sie eine Sicherheitsgruppe für ausgehende Nachrichten für die Quell- und Zieldatenbanken. |  | SysAdmin | 
| Erstellen und konfigurieren Sie bei Bedarf eine EC2 Instanz für AWS SCT. |  | DBA | 
| Laden Sie die neueste Version von AWS SCT und die zugehörigen Treiber herunter. |  | DBA | 
| Fügen Sie die erforderlichen Benutzer und Berechtigungen in der Quelldatenbank hinzu und validieren Sie sie. |  | DBA | 
| Erstellen Sie ein AWS SCT-Projekt für den Workload und stellen Sie eine Verbindung zur Quelldatenbank her. |  | DBA | 
| Erstellen Sie einen Bewertungsbericht und bewerten Sie die Machbarkeit. |  | DBA | 

### Bereiten Sie die Zieldatenbank vor
<a name="prepare-the-target-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Amazon RDS-DB-Zielinstanz mit Amazon Aurora als Datenbank-Engine. |  | DBA | 
| Extrahieren Sie die Liste der Benutzer, Rollen und Berechtigungen aus der Quelle. |  | DBA | 
| Ordnen Sie die vorhandenen Datenbankbenutzer den neuen Datenbankbenutzern zu. |  | Besitzer der App | 
| Erstellen Sie Benutzer in der Zieldatenbank. |  | DBA | 
| Wenden Sie Rollen aus dem vorherigen Schritt auf die Zieldatenbank an. |  | DBA | 
| Überprüfen Sie die Datenbankoptionen, Parameter, Netzwerkdateien und Datenbank-Links in der Quelldatenbank und bewerten Sie dann deren Anwendbarkeit auf die Zieldatenbank. |  | DBA | 
| Wenden Sie alle relevanten Einstellungen auf das Ziel an. |  | DBA | 

### Objekte übertragen
<a name="transfer-objects"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie die AWS SCT-Konnektivität zur Zieldatenbank. |  | DBA | 
| Konvertieren Sie das Schema mit AWS SCT. | AWS SCT konvertiert das Quelldatenbankschema und den größten Teil des benutzerdefinierten Codes automatisch in ein Format, das mit der Zieldatenbank kompatibel ist. Jeder Code, den das Tool nicht automatisch konvertieren kann, ist deutlich gekennzeichnet, sodass Sie ihn selbst konvertieren können. | DBA | 
| Überprüfen Sie den generierten SQL-Bericht und speichern Sie alle Fehler und Warnungen. |  | DBA | 
| Wenden Sie automatische Schemaänderungen auf das Ziel an oder speichern Sie sie als .sql-Datei. |  | DBA | 
| Überprüfen Sie, ob AWS SCT die Objekte auf dem Ziel erstellt hat.  |  | DBA | 
| Alle Elemente, die nicht automatisch konvertiert werden konnten, können manuell neu geschrieben, zurückgewiesen oder neu gestaltet werden. |  | DBA | 
| Wenden Sie die generierten Rollen- und Benutzerberechtigungen an und überprüfen Sie alle Ausnahmen. |  | DBA | 

### Migrieren Sie die Daten
<a name="migrate-the-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Ermitteln Sie die Migrationsmethode. |  | DBA | 
| Erstellen Sie eine Replikationsinstanz von der AWS DMS-Konsole aus. | Detaillierte Informationen zur Verwendung von AWS DMS finden Sie unter den Links im Abschnitt „Verwandte Ressourcen“. | DBA | 
| Erstellen Sie die Quell- und Zielendpunkte. |  | DBA | 
| Erstellen Sie eine Replikationsaufgabe. |  | DBA | 
| Starten Sie die Replikationsaufgabe und überwachen Sie die Protokolle. |  | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwenden Sie AWS SCT, um die SQL-Elemente im Anwendungscode zu analysieren und zu konvertieren. | Wenn Sie Ihr Datenbankschema von einer Engine in eine andere konvertieren, müssen Sie auch den SQL-Code in Ihren Anwendungen aktualisieren, damit diese mit der neuen Datenbank-Engine anstelle der alten interagieren. Sie können den konvertierten SQL-Code anzeigen, analysieren, bearbeiten und speichern. Detaillierte Informationen zur Verwendung von AWS SCT finden Sie unter den Links im Abschnitt „Verwandte Ressourcen“. | Besitzer der App | 
| Erstellen Sie die neuen Anwendungsserver auf AWS. |  | Besitzer der App | 
| Migrieren Sie den Anwendungscode auf die neuen Server. |  | Besitzer der App | 
| Konfigurieren Sie den Anwendungsserver für die Zieldatenbank und die Treiber. |  | Besitzer der App | 
| Korrigieren Sie jeglichen Code, der für die Quelldatenbank-Engine in der Anwendung spezifisch ist. |  | Besitzer der App | 
| Optimieren Sie den Anwendungscode für die Ziel-Engine. |  | Besitzer der App | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Wenden Sie alle neuen Benutzer, Zuschüsse und Codeänderungen auf das Ziel an. |  | DBA | 
| Sperren Sie die Anwendung für alle Änderungen. |  | Besitzer der App | 
| Stellen Sie sicher, dass alle Änderungen an die Zieldatenbank weitergegeben wurden. |  | DBA | 
| Verweisen Sie den neuen Anwendungsserver auf die Zieldatenbank. |  | Besitzer der App | 
| Überprüfe alles noch einmal. |  | Besitzer der App | 
| Geh live. |  | Besitzer der App | 

### Schließe das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie die temporären AWS-Ressourcen herunter (AWS DMS-Replikationsinstanz und für AWS SCT verwendete EC2 Instanz). |  | DBA, Besitzer der App | 
| Aktualisieren Sie das Feedback zum AWS DMS-Prozess für interne Teams. |  | DBA, Besitzer der App | 
| Überarbeiten Sie den AWS-DMS-Prozess und verbessern Sie gegebenenfalls die Vorlage. |  | DBA, Besitzer der App | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA, Besitzer der App | 
| Erfassen Sie Kennzahlen zum Zeitpunkt der Migration, zu den prozentualen Einsparungen bei den manuellen Kosten im Vergleich zu den Werkzeugkosten usw. |  | DBA, Besitzer der App | 
| Schließen Sie das Projekt und geben Sie Feedback. |  | DBA, Besitzer der App | 

## Zugehörige Ressourcen
<a name="migrate-a-microsoft-sql-server-database-to-aurora-mysql-by-using-aws-dms-and-aws-sct-related-resources"></a>

**Referenzen**
+ [AWS DMS-Benutzerhandbuch](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
+ [AWS SCT-Benutzerhandbuch](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)  
+ [Amazon Aurora Aurora-Preise](https://aws.amazon.com/rds/aurora/pricing/) 

**Tutorials und Videos**
+ [Erste Schritte mit dem AWS Database Migration Service](https://aws.amazon.com/dms/getting-started/)
+ [Erste Schritte mit dem AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html)
+ [Amazon RDS-Ressourcen](https://aws.amazon.com/rds/getting-started/)
+ [Exemplarische Vorgehensweisen zu AWS DMS Step-by-Step](https://docs.aws.amazon.com/dms/latest/sbs/DMS-SBS-Welcome.html) 

# Migrieren Sie eine lokale MariaDB-Datenbank mit nativen Tools zu Amazon RDS for MariaDB
<a name="migrate-an-on-premises-mariadb-database-to-amazon-rds-for-mariadb-using-native-tools"></a>

*Shyam Sunder Rakhecha, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-mariadb-database-to-amazon-rds-for-mariadb-using-native-tools-summary"></a>

Dieses Muster bietet Anleitungen für die Migration einer lokalen MariaDB-Datenbank zu Amazon Relational Database Service (Amazon RDS) für MariaDB mithilfe nativer Tools. Wenn Sie MySQL-Tools installiert haben, können Sie **mysql** und **mysqldump** verwenden. **Wenn Sie MariaDB-Tools installiert haben, können Sie Mariadb und **Mariadb-dump** verwenden.** MySQL- und MariaDB-Tools haben denselben Ursprung, aber es gibt geringfügige Unterschiede in MariaDB-Version 10.6 und höher.

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-mariadb-database-to-amazon-rds-for-mariadb-using-native-tools-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Eine MariaDB-Quelldatenbank in einem lokalen Rechenzentrum

**Einschränkungen**
+ Größenbeschränkung der Datenbank: 64 TB

**Produktversionen**
+ MariaDB-Versionen 10.0-10.6 (die aktuelle Liste der unterstützten Versionen finden Sie unter [MariaDB on](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_MariaDB.html#MariaDB.Concepts.VersionMgmt) Amazon RDS in der AWS-Dokumentation)

## Architektur
<a name="migrate-an-on-premises-mariadb-database-to-amazon-rds-for-mariadb-using-native-tools-architecture"></a>

**Quelltechnologie-Stack**
+ MariaDB-Datenbank in einem lokalen Rechenzentrum

**Zieltechnologie-Stack**
+ Amazon RDS for MariaDB MariaDB-DB-Instance

**Zielarchitektur**

![\[Architekturdiagramm mit primären und Standby-RDS-DB-Instances in verschiedenen Availability Zones.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/7be644e0-da42-4515-87b7-04da7a054adb/images/eca8eb55-579a-42e2-96ce-9b14b097b4c9.png)


**Architektur der Datenmigration**

![\[Architekturdiagramm der Migration einer lokalen MariaDB-Datenbank zu Amazon RDS\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/7be644e0-da42-4515-87b7-04da7a054adb/images/daba40e2-a2b1-44f8-8e69-31458206a823.png)


## Tools
<a name="migrate-an-on-premises-mariadb-database-to-amazon-rds-for-mariadb-using-native-tools-tools"></a>
+ Native MySQL-Tools: **mysql** und **mysqldump**
+ **Native MariaDB-Tools: Mariadb und **Mariadb-Dump****

## Epen
<a name="migrate-an-on-premises-mariadb-database-to-amazon-rds-for-mariadb-using-native-tools-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Validieren Sie die Versionen und Engines der Quell- und Zieldatenbank. |  | DBA | 
| Identifizieren Sie die Hardwareanforderungen für die Zielserverinstanz. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Speicheranforderungen (Speichertyp und Kapazität). |  | DBA, Systemadministrator | 
| Wählen Sie den richtigen Instanztyp auf der Grundlage von Kapazität, Speicherfunktionen und Netzwerkfunktionen aus. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für Quell- und Zieldatenbanken. |  | DBA, Systemadministrator | 
| Identifizieren Sie die Strategie zur Anwendungsmigration. |  | DBA, App-Besitzer, Systemadministrator | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer Virtual Private Cloud (VPC). |  | Systemadministrator | 
| Erstellen Sie Sicherheitsgruppen. |  | Systemadministrator | 
| Konfigurieren und starten Sie eine Amazon RDS-DB-Instance, auf der MariaDB ausgeführt wird. |  | Systemadministrator | 

### Daten migrieren
<a name="migrate-data"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwenden Sie native Tools, um Datenbankobjekte und Daten zu migrieren. | Verwenden Sie in der Quelldatenbank **mysqldump oder **mariadb-dump****, um eine Ausgabedatei zu erstellen, die Datenbankobjekte und Daten enthält. **Verwenden Sie in der Zieldatenbank **mysql oder mariadb, um die Daten wiederherzustellen**.** | DBA | 
| Validieren Sie die Daten. | Überprüfen Sie die Quell- und Zieldatenbanken, um sicherzustellen, dass die Datenmigration erfolgreich war. | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der Strategie zur Anwendungsmigration. |  | DBA, App-Besitzer, Systemadministrator | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stellen Sie die Anwendungsclients auf die neue Infrastruktur um. |  | DBA, App-Besitzer, Systemadministrator | 

### Schließen Sie das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Fahren Sie die temporären AWS-Ressourcen herunter. |  | Systemadministrator | 
| Überprüfen und validieren Sie die Projektdokumente. |  | DBA, App-Besitzer, Systemadministrator | 
| Sammeln Sie Kennzahlen zum Zeitpunkt der Migration, zu den durch Tools erzielten Kosteneinsparungen usw. |  | DBA, App-Besitzer, Systemadministrator | 
| Schließen Sie das Projekt ab und geben Sie Feedback. |  | DBA, App-Besitzer, Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-mariadb-database-to-amazon-rds-for-mariadb-using-native-tools-resources"></a>

**Amazon RDS-Referenzen**
+ [Amazon RDS für MariaDB](https://aws.amazon.com/rds/mariadb/)
+ [Amazon Virtual Private Cloud VPCs und Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_VPC.html)
+ [Amazon RDS Multi-AZ-Bereitstellungen](https://aws.amazon.com/rds/details/multi-az/)
+ [Amazon RDS — Preise](https://aws.amazon.com/rds/pricing/)

**MySQL- und MariaDB-Referenzen**
+ [mariadb-dump/mysqldump](https://mariadb.com/kb/en/mariadb-dumpmysqldump/) 
+ [mysql-Befehlszeilenclient](https://mariadb.com/kb/en/mysql-command-line-client/) 

**Anleitungen und Videos**
+ [Erste Schritte mit Amazon RDS](https://aws.amazon.com/rds/getting-started/)

# Migrieren Sie eine lokale MySQL-Datenbank zu Aurora MySQL
<a name="migrate-an-on-premises-mysql-database-to-aurora-mysql"></a>

*Igor Obradovic, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-on-premises-mysql-database-to-aurora-mysql-summary"></a>

Dieses Muster erklärt, wie eine lokale MySQL-Quelldatenbank zur Amazon Aurora MySQL-Compatible Edition migriert wird. **Es beschreibt zwei Optionen für die Migration: die Verwendung von AWS Database Migration Service (AWS DMS) oder die Verwendung nativer MySQL-Tools wie **mysqldbcopy und mysqldump**.** 

## Voraussetzungen und Einschränkungen
<a name="migrate-an-on-premises-mysql-database-to-aurora-mysql-prereqs"></a>

**Voraussetzungen**
+ Ein aktiver AWS-Konto
+ Eine MySQL-Quelldatenbank in einem lokalen Rechenzentrum

**Einschränkungen**
+ Größenbeschränkung der Datenbank: 128 TB

**Produktversionen**
+ MySQL Version 8.0 (Aurora MySQL Version 3) ist im Rahmen der Standardunterstützung verfügbar. 
+ MySQL Version 5.7 (Aurora MySQL Version 2) ist im Rahmen des erweiterten Supports gegen Aufpreis erhältlich.

Die aktuelle Liste der unterstützten Versionen finden Sie in der AWS Dokumentation unter [Amazon Aurora Aurora-Versionen](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraMySQLReleaseNotes/AuroraMySQL.release-calendars.html). Wenn Sie verwenden AWS DMS, siehe auch [Verwenden einer MySQL-kompatiblen Datenbank als Ziel für AWS DMS für](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.MySQL.html) MySQL-Versionen, die von unterstützt werden. AWS DMS

## Architektur
<a name="migrate-an-on-premises-mysql-database-to-aurora-mysql-architecture"></a>

**Quelltechnologie-Stack**
+ Eine lokale MySQL-Datenbank

**Zieltechnologie-Stack**
+ Amazon Aurora MySQL-Compatible Edition 

**Zielarchitektur**

Aurora-Daten werden in einem Cluster-Volume gespeichert, bei dem es sich um ein einzelnes virtuelles Volume handelt, das Solid-State-Laufwerke (SSDs) verwendet. Ein Cluster-Volume besteht aus Datenkopien, die sich zwischen drei Availability Zones in einer einzelnen AWS-Region befinden. Da die Daten automatisch über Availability Zones hinweg repliziert werden, sind sie äußerst robust und die Wahrscheinlichkeit eines Datenverlusts ist geringer.

Aurora teilt Ihr Datenbankvolumen automatisch in 10-GB-Segmente auf, die auf viele Festplatten verteilt sind. Jeder 10-GB-Abschnitt Ihres Datenbankvolumens wird auf sechs Arten in drei Availability Zones repliziert. Das folgende Diagramm veranschaulicht die Beziehung zwischen dem Cluster-Volume, der Writer-DB-Instance und den Reader-DB-Instances in einem Aurora-DB-Cluster sowie die Trennung von Rechenkapazität und Speicher. Weitere Informationen zu dieser Architektur finden Sie in der [Aurora-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.Overview.html) und in den [häufig gestellten Fragen](https://aws.amazon.com/rds/aurora/faqs/#product-faqs).

![\[Aurora MySQL-DB-Instances und gemeinsam genutztes Speichervolumen auf AWS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/22729803-e4ff-45a2-ab5b-8ba2445e5e21/images/0d7d8ebd-e0f2-4bcf-b296-8bdfb2f12b64.png)


**Architektur der Datenmigration**

*Verwenden von AWS DMS:*

Das folgende Diagramm veranschaulicht die Migration einer lokalen MySQL-Datenbank zu einem Aurora MySQL-kompatiblen Cluster im, using. AWS Cloud AWS DMS

![\[Migration einer lokalen MySQL-Datenbank zu Aurora MySQL mithilfe von AWS DMS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/22729803-e4ff-45a2-ab5b-8ba2445e5e21/images/e5d72ebd-d157-45d7-8844-d1011f1646c0.png)


*Verwendung nativer MySQL-Tools:*

****Das folgende Diagramm veranschaulicht die Migration einer lokalen MySQL-Datenbank zu einem Aurora MySQL-kompatiblen Cluster im AWS Cloud, wobei native MySQL-Tools wie mysqldbcopy und mysqldump verwendet werden.****

![\[Migration einer lokalen MySQL-Datenbank zu Aurora MySQL mithilfe von mysqldbcopy und mysqldump.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/22729803-e4ff-45a2-ab5b-8ba2445e5e21/images/26258752-24f6-4241-a49f-59c15e946314.png)


 

## Tools
<a name="migrate-an-on-premises-mysql-database-to-aurora-mysql-tools"></a>
+ [AWS Database Migration Service () unterstützt mehrere Quell AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html) - und Zieldatenbank-Engines. Hinweise zu MySQL-Quell- und Zieldatenbanken, die von unterstützt werden AWS DMS, finden Sie unter [MySQL-kompatible Datenbanken migrieren](https://docs.aws.amazon.com/dms/latest/sbs/CHAP_MySQL.html) zu. AWS Wir empfehlen Ihnen, die neueste Version von zu verwenden, um die umfassendste AWS DMS Versions- und Funktionsunterstützung zu erhalten.
+ [mysqldbcopy](https://manpages.ubuntu.com/manpages/focal/man1/mysqldbcopy.1.html) ist ein MySQL-Hilfsprogramm, das eine MySQL-Datenbank auf einen einzelnen Server oder zwischen Servern kopiert.
+ [mysqldump](https://dev.mysql.com/doc/refman/8.0/en/mysqldump.html) ist ein MySQL-Hilfsprogramm, das zu Sicherungs- oder Migrationszwecken eine Dump-Datei aus einer MySQL-Datenbank erstellt.

## Epen
<a name="migrate-an-on-premises-mysql-database-to-aurora-mysql-epics"></a>

### Planen Sie die Migration
<a name="plan-the-migration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Überprüfen Sie die Version und die Engine. | Überprüfen Sie die Datenbankversion und die Engine für die Quell- und Zieldatenbanken. | DBA | 
| Identifizieren Sie die Hardwareanforderungen. | Identifizieren Sie die Hardwareanforderungen für die Zielserverinstanz. | DBA, Systemadministrator | 
| Identifizieren Sie die Speicheranforderungen. | Identifizieren Sie die Speicheranforderungen (Speichertyp und Kapazität). | DBA, Systemadministrator | 
| Wählen Sie den Instance-Typ aus. | Wählen Sie den richtigen Instanztyp basierend auf Ihren Rechen-, Speicher- und Netzwerkanforderungen. | DBA, Systemadministrator | 
| Ermitteln Sie die Sicherheitsanforderungen für den Netzwerkzugriff. | Identifizieren Sie die Sicherheitsanforderungen für den Netzwerkzugriff für die Quell- und Zieldatenbanken. | DBA, Systemadministrator | 
| Legen Sie die Strategie fest. | Identifizieren Sie die Strategie für die Anwendungsmigration. | DBA, App-Besitzer, Systemadministrator | 

### Konfigurieren Sie die Infrastruktur
<a name="configure-the-infrastructure"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen einer Virtual Private Cloud (VPC). | Anweisungen finden Sie unter [Erstellen einer VPC](https://docs.aws.amazon.com/vpc/latest/userguide/create-vpc.html) in der Dokumentation zu Amazon Virtual Private Cloud (Amazon VPC). | Systemadministrator | 
| Erstellen Sie Sicherheitsgruppen. | Anweisungen finden Sie unter [Erstellen einer Sicherheitsgruppe für Ihre VPC](https://docs.aws.amazon.com/vpc/latest/userguide/creating-security-groups.html) in der Amazon VPC-Dokumentation. | Systemadministrator | 
| Konfigurieren und starten Sie einen Aurora MySQL-kompatiblen DB-Cluster in Ihrem. AWS-Konto | Anweisungen finden Sie in der Aurora-Dokumentation unter [Erstellen eines Amazon Aurora Aurora-DB-Clusters](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.CreateInstance.html). | Systemadministrator | 

### Daten migrieren — Option 1
<a name="migrate-data---option-1"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Verwenden Sie native MySQL-Tools oder Tools von Drittanbietern, um Datenbankobjekte und Daten zu migrieren. | [Anweisungen finden Sie in der Dokumentation für MySQL-Tools wie [mysqldbcopy und mysqldump](https://manpages.ubuntu.com/manpages/focal/man1/mysqldbcopy.1.html).](https://dev.mysql.com/doc/refman/8.0/en/mysqldump.html) | DBA | 

### Daten migrieren — Option 2
<a name="migrate-data---option-2"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Migrieren Sie Daten mit AWS DMS. | Anweisungen finden Sie in der [Dokumentation unter Verwenden einer MySQL-kompatiblen Datenbank als Quelle](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.MySQL.html) und [Verwenden einer MySQL-kompatiblen Datenbank als Ziel](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.MySQL.html). AWS DMS  | DBA | 

### Migrieren Sie die Anwendung
<a name="migrate-the-application"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie der Strategie. | Folgen Sie der Strategie zur Anwendungsmigration. | DBA, App-Besitzer, Systemadministrator | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Wechseln Sie zwischen den Anwendungsclients. | Schalten Sie die Anwendungsclients um, um eine Verbindung zum neuen Aurora-Cluster-Endpunkt herzustellen. | DBA, App-Besitzer, Systemadministrator | 

### Schließen Sie das Projekt
<a name="close-the-project"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Ressourcen herunterfahren. | Temporäre AWS Ressourcen herunterfahren. | DBA, Systemadministrator | 
| Überprüfen Sie die Dokumentation. | Überprüfen und validieren Sie die Projektdokumente. | DBA, App-Besitzer, Systemadministrator | 
| Sammeln Sie Metriken. | Erfassen Sie Kennzahlen zum Zeitpunkt der Migration, zum Prozentsatz manueller Schritte im Vergleich zur Nutzung der Tools, zu Kosteneinsparungen usw. | DBA, App-Besitzer, Systemadministrator | 
| Schließen Sie das Migrationsprojekt ab. | Schließen Sie das Projekt ab und geben Sie Feedback. | App-Besitzer, DBA, Systemadministrator | 

## Zugehörige Ressourcen
<a name="migrate-an-on-premises-mysql-database-to-aurora-mysql-resources"></a>

**Referenzen**
+ [Daten zum Amazon Aurora MySQL-DB-Cluster migrieren](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL.Migrating.html)
+ [AWS DMS website](https://aws.amazon.com/dms/)
+ [AWS DMS Dokumentation](https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html)
+ [Amazon Aurora Aurora-Preise](https://aws.amazon.com/rds/aurora/pricing/)
+ [Einen Aurora MySQL-DB-Cluster erstellen und eine Verbindung zu diesem herstellen](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_GettingStartedAurora.CreatingConnecting.Aurora.html)
+ [Amazon VPC und Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_VPC.html)
+ [Amazon Aurora Aurora-Dokumentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html)

**Tutorials und Videos**
+ [Erste Schritte mit AWS DMS](https://aws.amazon.com/dms/getting-started/)
+ [Erste Schritte mit Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_GettingStartedAurora.html)

# Migrieren Sie lokale MySQL-Datenbanken mit Percona XtraBackup, Amazon EFS und Amazon S3 zu Aurora MySQL
<a name="migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3"></a>

*Rohan Jamadagni, Udayasimha Theepireddy und Sajith Menon, Amazon Web Services*

## Zusammenfassung
<a name="migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3-summary"></a>

Dieses Muster beschreibt, wie große, lokale MySQL-Datenbanken mithilfe von XtraBackup Percona effizient zu Amazon Aurora MySQL migriert werden können. Percona XtraBackup ist ein quelloffenes, nicht blockierendes Backup-Programm für MySQL-basierte Server. Das Muster zeigt, wie Amazon Elastic File System (Amazon EFS) verwendet wird, um die Zeit für das Hochladen des Backups auf Amazon Simple Storage Service (Amazon S3) und das Wiederherstellen des Backups auf Amazon Aurora MySQL zu reduzieren. Das Muster enthält auch Details darüber, wie inkrementelle Percona-Backups erstellt werden können, um die Anzahl der Binärprotokolle zu minimieren, die auf die Aurora MySQL-Zieldatenbank angewendet werden sollen.  

## Voraussetzungen und Einschränkungen
<a name="migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3-prereqs"></a>

**Voraussetzungen**
+ Ein aktives AWS-Konto
+ Berechtigungen zum Erstellen von Rollen und Richtlinien für AWS Identity and Access Management (IAM)
+ Netzwerkkonnektivität zwischen der lokalen MySQL-Datenbank und der Virtual Private Cloud (VPC) auf AWS

**Einschränkungen**
+ Bei den Quellservern muss es sich um Linux-basierte Systeme handeln, die einen Network File System (NFS) -Client (nfs-utils/nfs-common) installieren können.
+ Der zum Hochladen von Backup-Dateien verwendete S3-Bucket unterstützt nur serverseitige Verschlüsselung (SSE-S3/SSE-KMS).
+ Amazon S3 begrenzt die Größe der Backup-Dateien auf 5 TB. Wenn Ihre Sicherungsdatei 5 TB überschreitet, können Sie sie in mehrere kleinere Dateien aufteilen.
+ Die Anzahl der in den S3-Bucket hochgeladenen Quelldateien darf eine Million Dateien nicht überschreiten.
+ Das Muster unterstützt nur das XtraBackup vollständige und das inkrementelle Backup von Percona. Es unterstützt keine teilweisen Backups, die`--tables`,,`--tables-exclude`, `--tables-file` `--databases``--databases-exclude`, oder verwenden. `--databases-file`
+ Aurora stellt keine Benutzer, Funktionen, gespeicherten Prozeduren oder Zeitzoneninformationen aus der MySQL-Quelldatenbank wieder her.

**Produktversionen**
+ Die Quelldatenbank muss die MySQL-Version 5.5, 5.6 oder 5.7 sein.
+ Für MySQL 5.7 müssen Sie Percona XtraBackup 2.4 verwenden.
+ Für MySQL 5.6 und 5.6 müssen Sie Percona XtraBackup 2.3 oder 2.4 verwenden.

## Architektur
<a name="migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3-architecture"></a>

**Quelltechnologie-Stack**
+ Linux-basiertes Betriebssystem
+ MySQL-Server
+ Percona XtraBackup

**Zieltechnologie-Stack**
+ Amazon Aurora
+ Amazon S3
+ Amazon EFS

**Zielarchitektur**

![\[Architektur für die Migration großer MySQL-Datenbanken zu Amazon Aurora MySQL mithilfe von Percona XtraBackup.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/bf327776-bafd-484d-9ae2-a6f5c8af6edd/images/7a410539-1511-4106-90e2-8c0c8e95f92b.png)


## Tools
<a name="migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3-tools"></a>

*AWS-Services*
+ [Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraMySQL.html) ist eine vollständig verwaltete relationale Datenbank-Engine, die es einfach und kostengünstig macht, MySQL-Bereitstellungen einzurichten, zu betreiben und zu skalieren. Aurora MySQL ist ein Drop-In-Ersatz für MySQL.
+ [Amazon Elastic File System (Amazon EFS)](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) unterstützt Sie bei der Erstellung und Konfiguration gemeinsam genutzter Dateisysteme in der AWS-Cloud.
+ [Amazon Simple Storage Service (Amazon S3)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.

**Andere Tools**
+ [Percona XtraBackup](https://www.percona.com/doc/percona-xtrabackup/2.4/index.html) ist ein Open-Source-Hilfsprogramm, das Streaming-, komprimierte und inkrementelle Backups von MySQL-Datenbanken durchführt, ohne Ihre Datenbanken zu stören oder zu blockieren.

## Epen
<a name="migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3-epics"></a>

### Erstellen eines Amazon EFS-Dateisystems
<a name="create-an-amazon-efs-file-system"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine Sicherheitsgruppe, die Amazon EFS-Mount-Zielen zugeordnet werden soll. | Erstellen Sie eine Sicherheitsgruppe in der VPC, die mit einem VPN-Anhang zur lokalen Datenbank über AWS Transit Gateway konfiguriert ist. Weitere Informationen zu den in diesem und anderen Berichten beschriebenen Befehlen und Schritten finden Sie unter den Links im Abschnitt „Verwandte Ressourcen“ am Ende dieses Musters. |  DevOps/database AWS-Administrator | 
| Bearbeiten Sie die Sicherheitsgruppenregeln. | Fügen Sie eine Regel für eingehenden Datenverkehr hinzu und verwenden Sie dabei den Typ NFS, Port 2049 und den IP-Bereich des lokalen Datenbankservers als Quelle. Standardmäßig erlaubt die Regel für ausgehenden Datenverkehr das Verlassen des gesamten Datenverkehrs. Wenn dies nicht der Fall ist, fügen Sie eine ausgehende Regel hinzu, um eine Verbindung für den NFS-Port zu öffnen. Fügen Sie zwei weitere Regeln für eingehenden Datenverkehr hinzu: Port 2049 (Quelle: Sicherheitsgruppen-ID derselben Sicherheitsgruppe) und Port 22 (Quelle: IP-Bereich, von dem aus Sie eine Verbindung zu einer Instance herstellen werden). EC2  |  DevOps/database AWS-Administrator | 
| Erstellen eines Dateisystems. | Verwenden Sie in den Mount-Zielen die VPC und die Sicherheitsgruppe, die Sie in der vorherigen Geschichte erstellt haben. Wählen Sie den Durchsatzmodus und die Leistung auf der Grundlage der I/O Anforderungen der lokalen Datenbank. Aktivieren Sie optional die Verschlüsselung im Ruhezustand. |  DevOps/database AWS-Administrator | 

### Hängen Sie das Dateisystem ein
<a name="mount-the-file-system"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie eine IAM-Instanzprofilrolle, die einer EC2 Instanz zugeordnet werden soll. | Erstellen Sie eine IAM-Rolle, die über Berechtigungen zum Hochladen und Zugreifen auf Objekte in Amazon S3 verfügt. Wählen Sie den S3-Bucket aus, in dem das Backup als Richtlinienressource gespeichert werden soll. | AWS DevOps | 
| Erstellen Sie eine EC2 Instanz. | Starten Sie eine Linux-basierte EC2 Instance und fügen Sie die IAM-Instance-Profilrolle, die Sie im vorherigen Schritt erstellt haben, sowie die Sicherheitsgruppe, die Sie zuvor erstellt haben, hinzu. | AWS DevOps | 
| Installieren Sie den NFS-Client. | Installieren Sie den NFS-Client auf dem lokalen Datenbankserver und auf der EC2 Instance. Installationsanweisungen finden Sie im Abschnitt „Zusätzliche Informationen“. | DevOps | 
| Mounten Sie das Amazon-EFS-Dateisystem ein. | Mounten Sie das Amazon EFS-Dateisystem lokal und auf der EC2 Instance. Erstellen Sie auf jedem Server ein Verzeichnis zum Speichern des Backups und mounten Sie das Dateisystem mithilfe des Mount-Zielendpunkts. Ein Beispiel finden Sie im Abschnitt „Zusätzliche Informationen“. | DevOps | 

### Erstellen Sie eine Sicherungskopie der MySQL-Quelldatenbank
<a name="make-a-backup-of-the-mysql-source-database"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie Percona XtraBackup. | Installieren Sie Percona XtraBackup 2.3 oder 2.4 (abhängig von der Version Ihrer MySQL-Datenbank) auf dem lokalen Datenbankserver. Links zur Installation finden Sie im Abschnitt „Verwandte Ressourcen“. | Datenbankadministrator | 
| Zählen Sie die Schemas und Tabellen in der Quelldatenbank. | Erfassen und notieren Sie die Anzahl der Schemas und Objekte in der MySQL-Quelldatenbank. Sie werden diese Zählungen verwenden, um die Aurora MySQL-Datenbank nach der Migration zu validieren. | Datenbankadministrator | 
| (Optional) Notieren Sie sich die neueste binäre Protokollsequenz aus der Quelldatenbank. | Führen Sie diesen Schritt aus, wenn Sie eine binäre Protokollreplikation zwischen der Quelldatenbank und Aurora MySQL einrichten möchten, um Ausfallzeiten zu minimieren. log-bin muss aktiviert sein und server\$1id muss eindeutig sein. Notieren Sie sich die aktuelle Binärprotokollsequenz aus der Quelldatenbank, kurz bevor Sie ein Backup initiieren. Führen Sie diesen Schritt unmittelbar vor der vollständigen Sicherung aus, wenn Sie nur die vollständige Sicherung verwenden möchten. Wenn Sie planen, nach einem vollständigen Backup inkrementelle Backups zu erstellen, führen Sie diesen Schritt unmittelbar vor dem letzten inkrementellen Backup aus, das Sie auf der Aurora MySQL-DB-Instance wiederherstellen werden. | Datenbankadministrator | 
| Starten Sie eine vollständige Sicherung der MySQL-Quelldatenbank. | Erstellen Sie mit Percona XtraBackup eine vollständige Sicherung der MySQL-Quelldatenbank. Befehle für vollständige und inkrementelle Backups finden Sie beispielsweise im Abschnitt „Zusätzliche Informationen“. | Datenbankadministrator | 
| (Optional) Erstellen Sie inkrementelle Backups mit Percona. XtraBackup | Inkrementelle Backups können verwendet werden, um die Anzahl der Binärprotokolle zu reduzieren, die Sie anwenden müssen, um die Quelldatenbank mit Aurora MySQL zu synchronisieren. Große und transaktionsintensive Datenbanken können bei Backups eine große Anzahl von Binärprotokollen generieren. Indem Sie inkrementelle Backups erstellen und diese auf einem gemeinsam genutzten Amazon EFS-Dateisystem speichern, können Sie die Zeit für das Sichern und Hochladen Ihrer Datenbank erheblich reduzieren. Einzelheiten finden Sie im Abschnitt „Zusätzliche Informationen“. Erstellen Sie weiterhin inkrementelle Backups, bis Sie bereit sind, mit der Migration zu Aurora zu beginnen. | Datenbankadministrator | 
| Bereiten Sie Backups vor. | In diesem Schritt werden Transaktionsprotokolle für Transaktionen, die während des Backups verarbeitet wurden, auf das Backup angewendet. Wenden Sie weiterhin Transaktionsprotokolle (--apply-log-only) auf jedes inkrementelle Backup an, um die Backups zusammenzuführen, mit Ausnahme des letzten Backups. Beispiele finden Sie im Abschnitt „Zusätzliche Informationen“. <efs\$1mount\$1name>Nach diesem Schritt befindet sich das vollständige, zusammengeführte Backup in \$1/ /fullbackup. | Datenbankadministrator | 
| Komprimieren und teilen Sie das endgültige zusammengeführte Backup auf. | Nachdem Sie das endgültige, zusammengeführte Backup vorbereitet haben, verwenden Sie die Befehle tar, zip und split, um kleinere ZIP-Dateien des Backups zu erstellen. Beispiele finden Sie im Abschnitt „Zusätzliche Informationen“. | Datenbankadministrator | 

### Stellen Sie das Backup auf einem Aurora MySQL-DB-Cluster wieder her
<a name="restore-the-backup-to-an-aurora-mysql-db-cluster"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie das Backup auf Amazon S3 hoch. | Das Amazon EFS-Dateisystem, in dem die Sicherungsdateien gespeichert sind, wird sowohl in der lokalen Datenbank als auch in einer EC2 Instance bereitgestellt, sodass die Sicherungsdateien für die EC2 Instance jederzeit verfügbar sind. <bucket\$1name>Stellen Sie mithilfe von Secure Shell (SSH) eine Connect zur EC2 Instanz her und laden Sie die komprimierten Backup-Dateien in einen neuen oder vorhandenen S3-Bucket hoch; zum Beispiel: aws s3 sync \$1/ <efs\$1mount\$1name>/fullbackup s3:///fullbackup. Weitere Informationen finden Sie unter den Links im Abschnitt „Verwandte Ressourcen“. | AWS DevOps | 
| Erstellen Sie eine Servicerolle für Aurora, um auf Amazon S3 zuzugreifen. | Erstellen Sie eine IAM-Rolle mit dem Trust „rds.amazonaws.com“ und einer Richtlinie, die Aurora den Zugriff auf den S3-Bucket ermöglicht, in dem die Backup-Dateien gespeichert sind. Die erforderlichen Berechtigungen sind, und. ListBucket GetObject GetObjectVersion | AWS DevOps | 
| Erstellen Sie die Netzwerkkonfiguration für Aurora. | Erstellen Sie eine Cluster-DB-Subnetzgruppe mit mindestens zwei Availability Zones und einer Subnetz-Routing-Tabellenkonfiguration, die ausgehende Konnektivität zur Quelldatenbank ermöglicht. Erstellen Sie eine Sicherheitsgruppe, die ausgehende Verbindungen zur lokalen Datenbank ermöglicht und es Administratoren ermöglicht, sich mit dem Aurora-DB-Cluster zu verbinden. Weitere Informationen finden Sie unter den Links im Abschnitt „Verwandte Ressourcen“. |  DevOps/database AWS-Administrator | 
| Stellen Sie das Backup auf einem Aurora MySQL-DB-Cluster wieder her. | Stellen Sie Ihre Daten aus dem Backup wieder her, das Sie auf Amazon S3 hochgeladen haben. Geben Sie die MySQL-Version Ihrer Quelldatenbank an, geben Sie den S3-Bucket-Namen und das Ordnerpfadpräfix an, in das Sie die Backup-Datei hochgeladen haben (z. B. „fullbackup“ für die Beispiele im Abschnitt „Zusätzliche Informationen“) und geben Sie die IAM-Rolle an, die Sie erstellt haben, um Aurora für den Zugriff auf Amazon S3 zu autorisieren. |  DevOps/database AWS-Administrator | 
| Validieren Sie die Aurora MySQL-Datenbank. | Überprüfen Sie die Anzahl der Schemas und Objekte im wiederhergestellten Aurora-DB-Cluster anhand der Anzahl, die Sie aus der Quelldatenbank erhalten haben. | Datenbankadministrator | 
| Richten Sie die Binlog-Replikation ein.  | Verwenden Sie die binäre Protokollsequenz, die Sie zuvor notiert haben, bevor Sie das letzte Backup erstellen, das im Aurora-DB-Cluster wiederhergestellt wurde. Erstellen Sie einen Replikationsbenutzer in der Quelldatenbank und folgen Sie den Anweisungen im Abschnitt „Zusätzliche Informationen“, um die entsprechenden Rechte bereitzustellen, die Replikation auf Aurora zu aktivieren und zu bestätigen, dass die Replikation synchron ist. |  DevOps/database AWS-Administrator | 

## Zugehörige Ressourcen
<a name="migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3-resources"></a>

**Erstellen eines Amazon-EFS-Dateisystems**
+ [Eine Sicherheitsgruppe erstellen](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html#CreatingSecurityGroups) (Amazon VPC-Dokumentation)
+ [Transit-Gateway-VPN-Anhänge](https://docs.aws.amazon.com/vpc/latest/tgw/tgw-vpn-attachments.html) (Amazon VPC-Dokumentation)
+ [Skalierung des VPN-Durchsatzes mit AWS Transit Gateway](https://aws.amazon.com/blogs/networking-and-content-delivery/scaling-vpn-throughput-using-aws-transit-gateway/) (Blog Networking & Content Delivery)
+ [Erstellen eines Amazon EFS-Dateisystems](https://docs.aws.amazon.com/efs/latest/ug/efs-onpremises.html#wt5-step1-efs) (Amazon EFS-Dokumentation)
+ [Bereitstellungsziele erstellen](https://docs.aws.amazon.com/efs/latest/ug/accessing-fs.html) (Amazon EFS-Dokumentation)
+ [Verschlüsseln von Daten im Ruhezustand](https://docs.aws.amazon.com/efs/latest/ug/encryption-at-rest.html) (Amazon EFS-Dokumentation)

**Mounten des Dateisystems**
+ [IAM-Rollen für Amazon EC2 ( EC2 Amazon-Dokumentation](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/iam-roles-for-amazon-ec2.html))
+ [Starten einer Amazon EC2 Linux-Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EC2_GetStarted.html#ec2-launch-instance) ( EC2 Amazon-Dokumentation)
+ [Installation des NFS-Clients](https://docs.aws.amazon.com/efs/latest/ug/efs-onpremises.html#wt5-step4-install-nfs) (Amazon EFS-Dokumentation)
+ [Mounten des Amazon EFS-Dateisystems auf Ihrem lokalen Client](https://docs.aws.amazon.com/efs/latest/ug/efs-onpremises.html#wt5-step3-connect) (Amazon EFS-Dokumentation)
+ [Mounten von EFS-Dateisystemen](https://docs.aws.amazon.com/efs/latest/ug/mounting-fs.html) (Amazon EFS-Dokumentation)

**Erstellen einer Sicherungskopie der MySQL-Quelldatenbank**
+ [Installation von Percona XtraBackup 2.3](https://www.percona.com/doc/percona-xtrabackup/2.3/installation.html) (Percona-Dokumentation XtraBackup )
+ [Installation von Percona XtraBackup 2.4](https://www.percona.com/doc/percona-xtrabackup/2.4/installation.html) (Percona-Dokumentation) XtraBackup  
+ [Einstellung der Replikations-Master-Konfiguration](https://dev.mysql.com/doc/refman/5.7/en/replication-howto-masterbaseconfig.html) (MySQL-Dokumentation)
+ [Daten von einer externen MySQL-Datenbank zu einem Aurora MySQL-DB-Cluster migrieren](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL.Migrating.ExtMySQL.html) (Aurora-Dokumentation)
+ [Inkrementelles Backup](https://www.percona.com/doc/percona-xtrabackup/2.4/backup_scenarios/incremental_backup.html) (Percona-Dokumentation XtraBackup )

**Wiederherstellung des Backups auf Amazon Aurora MySQL**
+ [Einen Bucket erstellen](https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingBucket.html#create-bucket-intro) (Amazon S3 S3-Dokumentation)
+ [Mit SSH eine Verbindung zu Ihrer Linux-Instance herstellen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AccessingInstancesLinux.html) (Amazon Ec2-Dokumentation)
+ [Konfiguration der AWS-CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html) (AWS-CLI-Dokumentation)
+ [Sync-Befehl](https://docs.aws.amazon.com/cli/latest/reference/s3/sync.html) (AWS-CLI-Befehlsreferenz)
+ [Erstellen einer IAM-Richtlinie für den Zugriff auf Amazon S3 S3-Ressourcen](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL.Integrating.Authorizing.IAM.S3CreatePolicy.html) (Aurora-Dokumentation)
+ [Voraussetzungen für DB-Cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.CreateInstance.html#Aurora.CreateInstance.Prerequisites) (Aurora-Dokumentation)
+ [Arbeiten mit DB-Subnetzgruppen](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/USER_VPC.WorkingWithRDSInstanceinaVPC.html#USER_VPC.Subnets) (Aurora-Dokumentation)
+ [Erstellen einer VPC-Sicherheitsgruppe für eine private DB-Instance](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_Tutorials.WebServerDB.CreateVPC.html#CHAP_Tutorials.WebServerDB.CreateVPC.SecurityGroupDB) (Aurora-Dokumentation)
+ [Wiederherstellen eines Aurora MySQL-DB-Clusters aus einem S3-Bucket](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL.Migrating.ExtMySQL.html#AuroraMySQL.Migrating.ExtMySQL.S3.Restore) (Aurora-Dokumentation)
+ [Einrichtung der Replikation mit MySQL oder einem anderen Aurora-DB-Cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL.Replication.MySQL.html#AuroraMySQL.Replication.MySQL.SettingUp) (Aurora-Dokumentation)
+ [mysql.rds\$1set\$1external\$1master-Prozedur](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/mysql_rds_set_external_master.html) (SQL-Referenz für MySQL auf Amazon RDS)
+ [mysql.rds\$1start\$1replication-Prozedur](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/mysql_rds_start_replication.html) (SQL-Referenz für MySQL auf Amazon RDS)

**Zusätzliche Verweise**
+ [Daten von einer externen MySQL-Datenbank zu einem Aurora MySQL-DB-Cluster migrieren](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL.Migrating.ExtMySQL.html) (Aurora-Dokumentation)
+ [MySQL-Server-Downloads](https://downloads.mysql.com/archives/community/) (Oracle-Website)

**Tutorials und Videos**
+  [Migrieren von MySQL-Daten zu einem Aurora MySQL-DB-Cluster mithilfe von Amazon S3](https://aws.amazon.com/premiumsupport/knowledge-center/migrate-mysql-aurora-innobackup/) (AWS Knowledge Center)
+  [Einrichtung und Bereitstellung von Amazon EFS](https://www.youtube.com/watch?v=NR8rVsSn_dY) (Video)

## Zusätzliche Informationen
<a name="migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3-additional"></a>

**Installation eines NFS-Clients**
+ Wenn Sie Red Hat oder ein ähnliches Linux-Betriebssystem verwenden, verwenden Sie den folgenden Befehl:  

```
$ sudo yum -y install nfs-utils
```
+ Wenn Sie Ubuntu oder ein ähnliches Linux-Betriebssystem verwenden, verwenden Sie den folgenden Befehl: 

```
$ sudo apt-get -y install nfs-common
```

Weitere Informationen finden Sie in der [exemplarischen Vorgehensweise](https://docs.aws.amazon.com/efs/latest/ug/efs-onpremises.html#wt5-step4-install-nfs) in der Amazon EFS-Dokumentation.

**Mounten des Amazon EFS-Dateisystems**

Verwenden Sie die Befehle:

```
mkdir ~/<efs_mount_name>
$ sudo mount -t nfs -o nfsvers=4.1,rsize=1048576,wsize=1048576,hard,timeo=600,retrans=2,noresvport mount-target-IP:/ ~/<efs_mount_name>
```

Weitere Informationen finden Sie in der [Anleitung und Mounten](https://docs.aws.amazon.com/efs/latest/ug/efs-onpremises.html#wt5-step3-connect) von [EFS-Dateisystemen](https://docs.aws.amazon.com/efs/latest/ug/mounting-fs.html) in der Amazon EFS-Dokumentation.

**Backups der MySQL-Quelldatenbank erstellen**

*Vollständige Backups*

Verwenden Sie einen Befehl wie den folgenden, der das Backup nimmt, komprimiert und in kleinere Teile von jeweils 1 GB aufteilt:

```
xtrabackup --backup --user=dbuser --password=<password> --binlog-info=AUTO --stream=tar --target-dir=~/<efs_mount_name>/fullbackup | gzip - | split -d --bytes=1024MB - ~/<efs_mount_name>/fullbackup/backup.tar.gz &
```

Wenn Sie planen, nach dem vollständigen Backup weitere inkrementelle Backups zu erstellen, sollten Sie das Backup nicht komprimieren und teilen. Verwenden Sie stattdessen einen Befehl, der dem folgenden ähnelt:

```
xtrabackup --backup --user=dbuser --password=<password> --target-dir=~/<efs_mount_name>/fullbackup/
```

*Inkrementelle Backups*

Verwenden Sie den vollständigen Backup-Pfad für den `--incremental-basedir` Parameter. Beispiel:

```
xtrabackup --backup --user=dbuser --password=<password> --target-dir=~/<efs_mount_name>/incremental/backupdate --incremental-basedir=~/<efs_mount_name>/fullbackup
```

wobei *basedir* der Pfad zur vollständigen Sicherung und zur Datei xtrabackup\$1checkpoints ist.

Weitere Informationen zum Erstellen von Backups finden Sie unter [Migrieren von Daten aus einer externen MySQL-Datenbank zu einem Amazon Aurora MySQL-DB-Cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL.Migrating.ExtMySQL.html) in der Aurora-Dokumentation.

**Backups vorbereiten**

So bereiten Sie ein vollständiges Backup vor:

```
xtrabackup --prepare --apply-log-only --target-dir=~/<efs_mount_name>/fullbackup
```

So bereiten Sie ein inkrementelles Backup vor:

```
xtrabackup --prepare --apply-log-only --target-dir=~/<efs_mount_name>/fullbackup --incremental-dir=~/<efs_mount_name>/incremental/06062020
```

So bereiten Sie das endgültige Backup vor:

```
xtrabackup --prepare --target-dir=~/<efs_mount_name>/fullbackup --incremental-dir=~/<efs_mount_name>/incremental/06072020
```

Weitere Informationen finden Sie unter [Inkrementelle Backups](https://www.percona.com/doc/percona-xtrabackup/2.4/backup_scenarios/incremental_backup.html) in der Percona-Dokumentation XtraBackup .

**Das zusammengeführte Backup komprimieren und aufteilen**

<efs\$1mount\$1name>Um das zusammengeführte Backup unter \$1/ /fullbackup zu komprimieren:

```
tar -zcvf <backupfilename.tar.gz> ~/<efs_mount_name>/fullbackup
```

Um das Backup aufzuteilen:

```
split -d -b1024M --verbose  <backupfilename.tar.gz> <backupfilename.tar.gz>
```

**Binlog-Replikation einrichten**

Um einen Replikationsbenutzer in der Quelldatenbank zu erstellen und die entsprechenden Rechte bereitzustellen:

```
CREATE USER 'repl_user'@'' IDENTIFIED BY ''; GRANT REPLICATION CLIENT, REPLICATION SLAVE ON *.* TO 'repl_user'@'';
```

Um die Replikation auf Aurora durch eine Verbindung zum Aurora-DB-Cluster zu aktivieren, aktivieren Sie binäre Logs in der DB-Cluster-Parametergruppe. Set `binlog_format = mixed` (gemischter Modus wird bevorzugt). Diese Änderung erfordert, dass Sie die Instanz neu starten, um das Update anzuwenden.

```
CALL mysql.rds_set_external_master ('sourcedbinstanceIP', sourcedbport, 'repl_user', '', 'binlog_file_name', binlog_file_position, 0); CALL mysql.rds_start_replication;
```

Gehen Sie wie folgt vor, um zu überprüfen, ob die Replikation synchron ist:

```
SHOW Slave Status \G;
```

Das Feld **Seconds behind master** zeigt, wie weit Aurora von der lokalen Datenbank zurückliegt.

# Migrieren Sie lokale Java-Anwendungen mithilfe von AWS App2Container zu AWS
<a name="migrate-on-premises-java-applications-to-aws-using-aws-app2container"></a>

*Dhananjay Karanjkar, Amazon Web Services*

## Zusammenfassung
<a name="migrate-on-premises-java-applications-to-aws-using-aws-app2container-summary"></a>

AWS App2Container (A2C) ist ein Befehlszeilentool, das dabei hilft, bestehende Anwendungen, die auf virtuellen Maschinen ausgeführt werden, in Container umzuwandeln, ohne dass Codeänderungen erforderlich sind. A2C erkennt Anwendungen, die auf einem Server laufen, identifiziert Abhängigkeiten und generiert relevante Artefakte für eine reibungslose Bereitstellung in Amazon Elastic Container Service (Amazon ECS) und Amazon Elastic Kubernetes Service (Amazon EKS).

Dieses Muster enthält die Schritte für die Remote-Migration von lokalen Java-Anwendungen, die auf einem Anwendungsserver bereitgestellt werden, zu AWS Fargate oder Amazon EKS mithilfe von App2Container über den Worker-Computer. 

Der Arbeitscomputer kann in den folgenden Anwendungsfällen verwendet werden:
+ Die Docker-Installation ist auf den Anwendungsservern, auf denen die Java-Anwendungen ausgeführt werden, nicht zulässig oder nicht verfügbar.
+ Sie müssen die Migration mehrerer Anwendungen verwalten, die auf verschiedenen physischen oder virtuellen Servern bereitgestellt werden.

Dieses Muster verwendet AWS CodeCommit AWS CodePipeline, und AWS CodeBuild.

## Voraussetzungen und Einschränkungen
<a name="migrate-on-premises-java-applications-to-aws-using-aws-app2container-prereqs"></a>

**Voraussetzungen**
+ Ein Anwendungsserver mit einer Java-Anwendung, die auf einem Linux-Server läuft
+ Ein Arbeitscomputer mit einem Linux-Betriebssystem
+ Ein Arbeitscomputer mit mindestens 20 GB verfügbarem Festplattenspeicher

**Einschränkungen**
+ Nicht alle Anwendungen werden unterstützt. Weitere Informationen finden Sie unter [Unterstützte Anwendungen für Linux](https://docs.aws.amazon.com/app2container/latest/UserGuide/supported-applications.html).

## Architektur
<a name="migrate-on-premises-java-applications-to-aws-using-aws-app2container-architecture"></a>

**Quelltechnologie-Stack**
+ Java-Anwendungen, die auf einem Linux-Server ausgeführt werden

**Zieltechnologie-Stack**
+ AWS CodeBuild
+ AWS CodeCommit
+ AWS CodeDeploy
+ AWS CodePipeline
+ Amazon Elastic Container Registry
+ AWS Fargate

**Zielarchitektur**

![\[Architektur für lokale Java-Anwendungen auf AWS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/61ed65a0-fab2-4fc8-8531-18bfd56a25b3/images/602cde7b-ab0c-46a5-8c37-afe304adf061.png)


 

## Tools
<a name="migrate-on-premises-java-applications-to-aws-using-aws-app2container-tools"></a>

**Tools**
+ [AWS App2Container](https://docs.aws.amazon.com/app2container/latest/UserGuide/what-is-a2c.html) — AWS App2Container (A2C) ist ein Befehlszeilentool, mit dem Sie Anwendungen, die in Ihren lokalen Rechenzentren oder auf virtuellen Maschinen ausgeführt werden, so verschieben können, dass sie in Containern ausgeführt werden, die von Amazon ECS oder Amazon EKS verwaltet werden.
+ [AWS CodeBuild](https://docs.aws.amazon.com/codebuild/latest/userguide/welcome.html) — AWS CodeBuild ist ein vollständig verwalteter Build-Service in der Cloud. CodeBuild kompiliert Ihren Quellcode, führt Komponententests durch und produziert Artefakte, die sofort einsatzbereit sind.
+ [AWS CodeCommit](https://docs.aws.amazon.com/codecommit/latest/userguide/welcome.html) — AWS CodeCommit ist ein von Amazon Web Services gehosteter Service zur Versionskontrolle, mit dem Sie Ressourcen (wie Dokumente, Quellcode und Binärdateien) privat in der Cloud speichern und verwalten können.
+ [AWS CodePipeline](https://docs.aws.amazon.com/codepipeline/latest/userguide/welcome.html) — AWS CodePipeline ist ein Continuous Delivery Service, mit dem Sie die zur Veröffentlichung Ihrer Software erforderlichen Schritte modellieren, visualisieren und automatisieren können.
+ [Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/Welcome.html) — Amazon Elastic Container Service (Amazon ECS) ist ein hoch skalierbarer, schneller Container-Management-Service zum Ausführen, Stoppen und Verwalten von Containern in einem Cluster.
+ [Amazon ECR](https://docs.aws.amazon.com/AmazonECR/latest/userguide/what-is-ecr.html) — Amazon Elastic Container Registry (Amazon ECR) ist ein von AWS verwalteter Container-Image-Registry-Service, der sicher, skalierbar und zuverlässig ist.
+ [Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/what-is-eks.html) — Amazon Elastic Kubernetes Service (Amazon EKS) ist ein verwalteter Service, mit dem Sie Kubernetes auf AWS ausführen können, ohne Ihre eigene Kubernetes-Steuerebene oder Knoten installieren, betreiben und warten zu müssen.
+ [AWS Fargate](https://docs.aws.amazon.com/AmazonECS/latest/userguide/what-is-fargate.html) — AWS Fargate ist eine Technologie, die Sie mit Amazon ECS verwenden können, um Container auszuführen, ohne Server oder Cluster von Amazon Elastic Compute Cloud (Amazon EC2) -Instances verwalten zu müssen. Mit Fargate müssen Sie keine Cluster virtueller Maschinen mehr bereitstellen, konfigurieren oder skalieren, um Container auszuführen.

## Epen
<a name="migrate-on-premises-java-applications-to-aws-using-aws-app2container-epics"></a>

### Richten Sie Anmeldeinformationen ein
<a name="set-up-credentials"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie ein Geheimnis für den Zugriff auf den Anwendungsserver. | Um vom Arbeitscomputer aus remote auf den Anwendungsserver zuzugreifen, erstellen Sie ein Geheimnis in AWS Secrets Manager. Für Ihr Geheimnis können Sie entweder den privaten SSH-Schlüssel oder das Zertifikat und den privaten SSH-Schlüssel verwenden. Weitere Informationen finden Sie unter [Manage Secrets for AWS App2Container](https://docs.aws.amazon.com/app2container/latest/UserGuide/manage-secrets.html). | DevOps, Entwickler | 

### Richten Sie die Arbeitsmaschine ein
<a name="set-up-the-worker-machine"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Installieren Sie die TAR-Datei. | Führen Sie `sudo yum install -y tar`. | DevOps, Entwickler | 
| Installieren Sie den AWS CLI. | Führen Sie den Befehl aus, um das Amazon Command Line Interface (AWS CLI) zu installieren`curl "https://awscli.amazonaws.com/awscli-exe-linux-x86_64.zip" -o "awscliv2.zip"`. Extrahieren Sie `awscliv2.zip`.Führen Sie `sudo ./aws/install`. | DevOps, Entwickler | 
| Installieren Sie App2Container. | Führen Sie die folgenden Befehle aus:`curl -o AWSApp2Container-installer-linux.tar.gz https://app2container-release-us-east-1.s3.us-east-1.amazonaws.com/latest/linux/AWSApp2Container-installer-linux.tar.gz``sudo tar xvf AWSApp2Container-installer-linux.tar.gz``sudo ./install.sh` | DevOps, Entwickler | 
| Konfigurieren Sie die Profile. | Führen Sie den Befehl aus, um das AWS-Standardprofil zu konfigurieren`sudo aws configure`.Führen Sie den Befehl aus, um das benannte AWS-Standardprofil zu konfigurieren`sudo aws configure --profile <profile name>`. | DevOps, Entwickler | 
| Docker-Installation. | Führen Sie die folgenden Befehle aus.`sudo yum install -y docker``sudo systemctl enable docker & sudo systemctl restart docker` |  | 
| Initialisieren Sie App2Container. | Um App2Container zu initialisieren, benötigen Sie die folgenden Informationen:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-on-premises-java-applications-to-aws-using-aws-app2container.html)Führen Sie `sudo app2container init`. | DevOps, Entwickler | 

### Konfigurieren Sie den Arbeitscomputer
<a name="configure-the-worker-machine"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konfigurieren Sie den Arbeitscomputer so, dass er eine Remoteverbindung herstellt und App2Container-Befehle auf dem Anwendungsserver ausführt. | Um den Arbeitscomputer zu konfigurieren, sind die folgenden Informationen erforderlich:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-on-premises-java-applications-to-aws-using-aws-app2container.html)Führen Sie `sudo app2container remote configure`. | DevOps, Entwickler | 

### Entdecken, analysieren und extrahieren Sie Anwendungen auf dem Arbeitscomputer
<a name="discover-analyze-and-extract-applications-on-the-worker-machine"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Entdecken Sie die lokalen Java-Anwendungen. | Führen Sie den folgenden Befehl aus, um per Fernzugriff alle Anwendungen zu ermitteln, die auf dem Anwendungsserver ausgeführt werden.`sudo app2container remote inventory --target <FQDN/IP of App server>`Dieser Befehl generiert eine Liste der bereitgestellten Anwendungen in`inventory.json`. | Entwickler, DevOps | 
| Analysieren Sie die entdeckten Anwendungen. | Führen Sie den folgenden Befehl aus, um jede Anwendung mithilfe der in der Inventarphase erhaltenen Anwendungs-ID remote zu analysieren.`sudo app2container remote analyze --application-id <java-app-id> --target <FQDN/IP of App Server>`Dadurch wird eine `analysis.json` Datei am Speicherort des Workspace generiert. Nachdem diese Datei generiert wurde, können Sie die Containerisierungsparameter Ihren Bedürfnissen entsprechend ändern. | Entwickler, DevOps | 
| Extrahieren Sie die analysierten Anwendungen. | Um ein Anwendungsarchiv für die analysierte Anwendung zu generieren, führen Sie den folgenden Befehl remote aus, der das TAR-Bundle am Workspace-Speicherort generiert.`sudo app2container remote extract --application-id <application id> --target <FQDN/IP of App Server>`Extrahierte Artefakte können auf dem lokalen Arbeitscomputer generiert werden. | Entwickler, DevOps | 

### Containeriere die extrahierten Artefakte auf dem Worker-Computer
<a name="containerize-the-extracted-artifacts-on-the-worker-machine"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Containerisieren Sie die extrahierten Artefakte. | Containerisieren Sie die im vorherigen Schritt extrahierten Artefakte, indem Sie den folgenden Befehl ausführen.`sudo app2container containerize --input-archive <tar bundle location on worker machine>` | Entwickler, DevOps | 
| Finalisieren Sie das Ziel. | Um das Ziel zu finalisieren, öffnen Sie es. Es wird erstellt`deployment.json`, wenn der `containerize` Befehl ausgeführt wird. Um AWS Fargate als Ziel anzugeben, legen Sie `createEcsArtifacts` auf `true` fest. Um Amazon EKS als Ziel festzulegen, legen Sie den Wert `createEksArtifacts` auf true fest. | Entwickler, DevOps | 

### Generieren und Bereitstellen von AWS-Artefakten
<a name="generate-and-provision-aws-artifacts"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Generieren Sie AWS-Bereitstellungsartefakte auf dem Arbeitscomputer. | Führen Sie den folgenden Befehl aus, um Bereitstellungsartefakte zu generieren.`sudo app2container generate app-deployment --application-id <application id>`Dadurch wird die `ecs-master.yml` CloudFormation AWS-Vorlage im Workspace generiert. | DevOps | 
| Stellen Sie die Artefakte bereit. | Um die generierten Artefakte weiter bereitzustellen, stellen Sie die CloudFormation AWS-Vorlage bereit, indem Sie den folgenden Befehl ausführen.`aws cloudformation deploy --template-file <path to ecs-master.yml> --capabilities CAPABILITY_NAMED_IAM --stack-name <application id>–ECS` | DevOps | 
| Generieren Sie die Pipeline. | Modifizieren Sie`pipeline.json`, was in der vorherigen Geschichte erstellt wurde, basierend auf Ihren Bedürfnissen. Führen Sie dann den `generate pipeline` Befehl aus, um die Artefakte für die Pipeline-Bereitstellung zu generieren. | DevOps | 

## Zugehörige Ressourcen
<a name="migrate-on-premises-java-applications-to-aws-using-aws-app2container-resources"></a>
+ [Was ist App2Container?](https://docs.aws.amazon.com/app2container/latest/UserGuide/what-is-a2c.html)
+ [Blogbeitrag zu AWS App2Container](https://aws.amazon.com/blogs/aws/aws-app2container-a-new-containerizing-tool-for-java-and-asp-net-applications/)
+ [Grundlagen der AWS-CLI-Konfiguration](https://docs.aws.amazon.com/cli/latest/userguide/cli-configure-quickstart.html)
+ [Docker-Grundlagen für Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/docker-basics.html)
+ [Docker-Befehle](https://docs.docker.com/engine/reference/commandline/cli/)

# Migrieren Sie gemeinsam genutzte Dateisysteme in einer AWS großen Migration
<a name="migrate-shared-file-systems-in-an-aws-large-migration"></a>

*Amit Rudraraju, Sam Apa, Bheemeswararao Balla, Wally Lu und Sanjeev Prakasam, Amazon Web Services*

## Zusammenfassung
<a name="migrate-shared-file-systems-in-an-aws-large-migration-summary"></a>

Die Migration von 300 oder mehr Servern wird als *umfangreiche* Migration angesehen. Der Zweck einer großen Migration besteht darin, Workloads von ihren vorhandenen, lokalen Rechenzentren auf die zu migrieren AWS Cloud, und diese Projekte konzentrieren sich in der Regel auf Anwendungs- und Datenbank-Workloads. Gemeinsam genutzte Dateisysteme erfordern jedoch besondere Aufmerksamkeit und einen separaten Migrationsplan. Dieses Muster beschreibt den Migrationsprozess für gemeinsam genutzte Dateisysteme und bietet bewährte Methoden für deren erfolgreiche Migration im Rahmen eines großen Migrationsprojekts.

Ein *Shared File System* (SFS), auch bekannt als *Netzwerk* - oder *Cluster-Dateisystem*, ist eine Dateifreigabe, die auf mehreren Servern bereitgestellt wird. Auf gemeinsam genutzte Dateisysteme wird über Protokolle wie Network File System (NFS), Common Internet File System (CIFS) oder Server Message Block (SMB) zugegriffen.

Diese Systeme werden nicht mit Standard-Migrationstools migriert, AWS Application Migration Service weil sie beispielsweise weder für den zu migrierenden Host reserviert sind noch als Blockgerät dargestellt werden. Obwohl die meisten Hostabhängigkeiten transparent migriert werden, müssen die Koordination und Verwaltung der abhängigen Dateisysteme separat erfolgen.

Sie migrieren gemeinsam genutzte Dateisysteme in den folgenden Phasen: Erkennung, Planung, Vorbereitung, Umstellung und Validierung. Mithilfe dieses Musters und der angehängten Arbeitsmappen migrieren Sie Ihr gemeinsam genutztes Dateisystem zu einem AWS Speicherservice wie Amazon Elastic File System (Amazon EFS), Amazon FSx for NetApp ONTAP oder Amazon FSx for Windows File Server. Um das Dateisystem zu übertragen, können Sie AWS DataSync oder ein Tool eines Drittanbieters verwenden, z. NetApp SnapMirror

**Anmerkung**  
Dieses Muster ist Teil einer AWS Prescriptive Guidance-Reihe über [umfangreiche Migrationen](https://aws.amazon.com/prescriptive-guidance/large-migrations/) zum. AWS Cloud Dieses Muster enthält bewährte Methoden und Anweisungen zur Integration SFSs in Ihre Wave-Pläne für Server. Wenn Sie ein oder mehrere gemeinsam genutzte Dateisysteme außerhalb eines großen Migrationsprojekts migrieren, lesen Sie die Anweisungen zur Datenübertragung in der AWS Dokumentation für [Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/trnsfr-data-using-datasync.html), [Amazon FSx for Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/migrate-to-fsx.html) und [Amazon FSx for NetApp ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/migrating-fsx-ontap.html).

## Voraussetzungen und Einschränkungen
<a name="migrate-shared-file-systems-in-an-aws-large-migration-prereqs"></a>

**Voraussetzungen**

Die Voraussetzungen können je nach Ihren gemeinsam genutzten Quell- und Zieldateisystemen und Ihrem Anwendungsfall variieren. Die folgenden sind die gängigsten:
+ Ein aktiver AWS-Konto.
+ Sie haben die Suche nach dem Anwendungsportfolio für Ihr großes Migrationsprojekt abgeschlossen und mit der Entwicklung von Wave-Plänen begonnen. Weitere Informationen finden Sie im [Portfolio-Playbook für AWS umfangreiche Migrationen](https://docs.aws.amazon.com/prescriptive-guidance/latest/large-migration-portfolio-playbook/welcome.html).
+ Virtuelle private Clouds (VPCs) und Sicherheitsgruppen, die eingehenden und ausgehenden Datenverkehr zwischen dem lokalen Rechenzentrum und Ihrer Umgebung ermöglichen. AWS [Weitere Informationen finden Sie unter [Netzwerkzu-Amazon-VPC-Verbindungsoptionen](https://docs.aws.amazon.com/whitepapers/latest/aws-vpc-connectivity-options/network-to-amazon-vpc-connectivity-options.html) und AWS DataSync Netzwerkanforderungen.](https://docs.aws.amazon.com/datasync/latest/userguide/datasync-network.html)
+ Berechtigungen zum Erstellen von AWS CloudFormation Stacks oder Berechtigungen zum Erstellen von Amazon EFS- oder FSx Amazon-Ressourcen. Weitere Informationen finden Sie in der [CloudFormation Dokumentation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/using-iam-template.html), in der [Amazon EFS-Dokumentation](https://docs.aws.amazon.com/efs/latest/ug/security-iam.html) oder in der [ FSx Amazon-Dokumentation](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/security-iam.html).
+ Wenn Sie AWS DataSync zur Durchführung der Migration verwenden, benötigen Sie die folgenden Berechtigungen:
  + Berechtigungen AWS DataSync zum Senden von Protokollen an eine Amazon CloudWatch Logs-Protokollgruppe. Weitere Informationen finden Sie unter [Zulassen DataSync des Hochladens von Protokollen in CloudWatch Protokollgruppen](https://docs.aws.amazon.com/datasync/latest/userguide/monitor-datasync.html#cloudwatchlogs).
  + Berechtigungen für den Zugriff auf die CloudWatch Protokollgruppe Logs. Weitere Informationen finden Sie unter [Überblick über die Verwaltung von Zugriffsberechtigungen für Ihre CloudWatch Logs-Ressourcen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/iam-access-control-overview-cwl.html).
  + Berechtigungen zum Erstellen von Agenten und Aufgaben in DataSync. Weitere Informationen finden Sie unter [Erforderliche IAM-Berechtigungen für die Verwendung AWS DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/permissions-requirements.html).

**Einschränkungen**
+ Dieses Muster ist für die Migration im SFSs Rahmen eines großen Migrationsprojekts konzipiert. Es enthält bewährte Methoden und Anweisungen für die Integration SFSs in Ihre Wave-Pläne für die Migration von Anwendungen. Wenn Sie ein oder mehrere gemeinsam genutzte Dateisysteme außerhalb eines großen Migrationsprojekts migrieren, lesen Sie die Anweisungen zur Datenübertragung in der AWS Dokumentation für [Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/trnsfr-data-using-datasync.html), [Amazon FSx for Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/migrate-to-fsx.html) und [Amazon FSx for NetApp ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/migrating-fsx-ontap.html).
+ Dieses Muster basiert auf häufig verwendeten Architekturen, Diensten und Migrationsmustern. Große Migrationsprojekte und -strategien können jedoch von Unternehmen zu Unternehmen variieren. Möglicherweise müssen Sie diese Lösung oder die bereitgestellten Arbeitsmappen an Ihre Anforderungen anpassen.

## Architektur
<a name="migrate-shared-file-systems-in-an-aws-large-migration-architecture"></a>

**Quelltechnologie-Stack**

Eine oder mehrere der Folgenden:
+ Linux-Dateiserver (NFS)
+ Windows (SMB) -Dateiserver
+ NetApp Speicher-Array
+ Dell EMC Isilon-Speicher-Array

**Zieltechnologie-Stack**

Eine oder mehrere der Folgenden:
+ Amazon Elastic File System
+ Amazon FSx für NetApp ONTAP
+ Amazon FSx für Windows-Dateiserver

**Zielarchitektur**

![\[Architekturdiagramm der Verwendung von AWS DataSync zur Migration von lokalen gemeinsam genutzten Dateisystemen zu AWS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/a30cf791-7a8a-4f71-8927-bc61f3b332f2/images/13232433-7d33-44c8-8998-b720f33f67b3.png)


Das Diagramm zeigt den folgenden Prozess:

1. Sie stellen eine Verbindung zwischen dem lokalen Rechenzentrum und dem her, AWS Cloud indem Sie ein AWS-Service Beispiel wie AWS Direct Connect oder AWS Site-to-Site VPN verwenden.

1. Sie installieren den DataSync Agenten im lokalen Rechenzentrum.

1. Gemäß Ihrem Wave-Plan replizieren Sie DataSync damit Daten aus dem gemeinsam genutzten Quelldateisystem auf die AWS Ziel-Dateifreigabe.

**Migrationsphasen**

Die folgende Abbildung zeigt die Phasen und allgemeinen Schritte für die Migration eines SFS in einem großen Migrationsprojekt.

![\[Entdecken, planen, vorbereiten, überarbeiten und validieren Sie die Phasen der Migration gemeinsam genutzter Dateisysteme zu AWS.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/a30cf791-7a8a-4f71-8927-bc61f3b332f2/images/f1e0c94d-0eea-46a8-bdec-3297b34c1d43.png)


Der Abschnitt [Epics](#migrate-shared-file-systems-in-an-aws-large-migration-epics) dieses Musters enthält detaillierte Anweisungen zum Abschließen der Migration und zur Verwendung der beigefügten Arbeitsmappen. Im Folgenden finden Sie einen allgemeinen Überblick über die Schritte dieses schrittweisen Ansatzes.


| 
| 
| Phase | Schritte | 
| --- |--- |
| Erkennen | 1. Mithilfe eines Discoverytools sammeln Sie Daten über das gemeinsam genutzte Dateisystem, einschließlich Server, Bereitstellungspunkte und IP-Adressen.2. Mithilfe einer Configuration Management Database (CMDB) oder Ihres Migrationstools erfassen Sie Details über den Server, einschließlich Informationen zur Migrationswelle, zur Umgebung, zum Anwendungsbesitzer, zum IT-Servicemanagement (ITSM) -Dienstnamen, zur Organisationseinheit und zur Anwendungs-ID. | 
| Plan | 3. Erstellen Sie anhand der gesammelten Informationen über die SFSs und die Server den SFS-Wellenplan.4. Wählen Sie anhand der Informationen im Build-Arbeitsblatt für jedes SFS ein Ziel AWS-Service und ein Migrationstool aus. | 
| Vorbereitung | 5. Richten Sie die Zielinfrastruktur in Amazon EFS, Amazon FSx for NetApp ONTAP oder Amazon FSx for Windows File Server ein.6. Richten Sie den Datenübertragungsdienst ein, z. B. DataSync, und starten Sie dann die erste Datensynchronisierung. Wenn die erste Synchronisierung abgeschlossen ist, können Sie wiederkehrende Synchronisierungen so einrichten, dass sie nach einem Zeitplan ausgeführt werden.7. Aktualisieren Sie den SFS-Wave-Plan mit Informationen zur Zieldateifreigabe, z. B. der IP-Adresse oder dem Pfad. | 
| Überschneiden | 8. Stoppen Sie Anwendungen, die aktiv auf das Quell-SFS zugreifen.9. Führen Sie im Datenübertragungsdienst eine letzte Datensynchronisierung durch.10. Wenn die Synchronisierung abgeschlossen ist, überprüfen Sie, ob sie vollständig erfolgreich war, indem Sie die Protokolldaten in CloudWatch Logs überprüfen. | 
| Bestätigen | 11. Ändern Sie auf den Servern den Bereitstellungspunkt auf den neuen SFS-Pfad.12. Starten Sie die Anwendungen neu und validieren Sie sie. | 

## Tools
<a name="migrate-shared-file-systems-in-an-aws-large-migration-tools"></a>

**AWS-Services**
+ [Amazon CloudWatch Logs](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/WhatIsCloudWatchLogs.html) hilft Ihnen dabei, die Protokolle all Ihrer Systeme und Anwendungen zu zentralisieren, AWS-Services sodass Sie sie überwachen und sicher archivieren können.
+ [AWS DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/what-is-datasync.html)ist ein Online-Datenübertragungs- und Erkennungsservice, mit dem Sie Dateien oder Objektdaten zu, von und zwischen AWS Speicherdiensten verschieben können.
+ [Amazon Elastic File System (Amazon EFS)](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) hilft Ihnen bei der Erstellung und Konfiguration gemeinsam genutzter Dateisysteme in der AWS Cloud.
+ [Amazon FSx](https://docs.aws.amazon.com/fsx/?id=docs_gateway) bietet Dateisysteme, die branchenübliche Konnektivitätsprotokolle unterstützen und eine hohe Verfügbarkeit und Replikation in allen Bereichen AWS-Regionen bieten.

**Andere Tools**
+ [SnapMirror](https://library.netapp.com/ecmdocs/ECMP1196991/html/GUID-BA1081BE-B2BB-4C6E-8A82-FB0F87AC514E.html)ist ein NetApp Datenreplikationstool, das Daten von bestimmten Quell-Volumes oder [QTrees auf Ziel-Volumes bzw. QTrees](https://library.netapp.com/ecmdocs/ECMP1154894/html/GUID-8F084F85-2AB8-4622-B4F3-2D9E68559292.html) repliziert. Sie können dieses Tool verwenden, um ein NetApp Quelldateisystem FSx für NetApp ONTAP zu Amazon zu migrieren.
+ [Robocopy](https://learn.microsoft.com/en-us/windows-server/administration/windows-commands/robocopy), kurz für *Robust File Copy*, ist ein Befehlszeilenverzeichnis und ein Befehl für Windows. Sie können dieses Tool verwenden, um ein Windows-Quelldateisystem zu Amazon FSx for Windows File Server zu migrieren.

## Best Practices
<a name="migrate-shared-file-systems-in-an-aws-large-migration-best-practices"></a>

**Ansätze zur Wellenplanung**

Berücksichtigen Sie bei der Planung von Wellen für Ihr großes Migrationsprojekt die Latenz und die Anwendungsleistung. Wenn das SFS und die abhängigen Anwendungen an unterschiedlichen Standorten betrieben werden, z. B. an einem Standort in der Cloud und einem im lokalen Rechenzentrum, kann dies die Latenz erhöhen und die Anwendungsleistung beeinträchtigen. Bei der Erstellung von Wellenplänen stehen die folgenden Optionen zur Verfügung:

1. **Migrieren Sie das SFS und alle abhängigen Server innerhalb derselben Welle** — Dieser Ansatz verhindert Leistungsprobleme und minimiert Nacharbeiten, wie z. B. die mehrfache Neukonfiguration von Mount-Points. Es wird empfohlen, wenn eine sehr geringe Latenz zwischen der Anwendung und dem SFS erforderlich ist. Die Wellenplanung ist jedoch komplex, und das Ziel besteht in der Regel darin, Variablen aus Abhängigkeitsgruppierungen zu entfernen und nicht zu ihnen hinzuzufügen. Außerdem wird dieser Ansatz nicht empfohlen, wenn viele Server auf dasselbe SFS zugreifen, da die Welle dadurch zu groß wird.

1. **Migrieren Sie das SFS, nachdem der letzte abhängige Server migriert wurde**. Wenn beispielsweise mehrere Server auf ein SFS zugreifen und diese Server für die Migration in den Wellen 4, 6 und 7 geplant sind, planen Sie das SFS so, dass es in Welle 7 migriert wird.

   Dieser Ansatz ist bei großen Migrationen oft am logischsten und wird für latenzempfindliche Anwendungen empfohlen. Es reduziert die mit der Datenübertragung verbundenen Kosten. Es minimiert auch die Latenzzeit zwischen dem SFS und Anwendungen höherer Ebenen (wie z. B. Produktionsanwendungen), da Anwendungen höherer Stufen in der Regel erst nach der Entwicklung und der Qualitätssicherung migriert werden.

   Dieser Ansatz erfordert jedoch immer noch Entdeckung, Planung und Agilität. Möglicherweise müssen Sie das SFS in einer früheren Welle migrieren. Vergewissern Sie sich, dass die Anwendungen die zusätzliche Latenz für den Zeitraum zwischen der ersten abhängigen Welle und der Welle, die das SFS enthält, aushalten können. Führen Sie eine Ermittlungssitzung mit den Besitzern der Anwendung durch und migrieren Sie die Anwendung in derselben Welle, der Anwendung mit der höchsten Latenzempfindlichkeit. Wenn nach der Migration einer abhängigen Anwendung Leistungsprobleme festgestellt werden, sollten Sie darauf vorbereitet sein, schnell umzusteigen, um das SFS so schnell wie möglich zu migrieren.

1. **Migrieren Sie das SFS am Ende des großen Migrationsprojekts** — Dieser Ansatz wird empfohlen, wenn die Latenz keine Rolle spielt, z. B. wenn auf die Daten im SFS selten zugegriffen wird oder wenn sie für die Anwendungsleistung nicht entscheidend sind. Dieser Ansatz rationalisiert die Migration und vereinfacht Umstellungsaufgaben.

Sie können diese Ansätze je nach Latenzempfindlichkeit der Anwendung kombinieren. Sie können z. B. latenzabhängig migrieren, SFSs indem Sie die Ansätze 1 oder 2 verwenden, und dann den Rest mit Ansatz 3 migrieren. SFSs 

**Wählen Sie einen Dateisystemdienst AWS **

AWS bietet mehrere Cloud-Dienste für die Dateispeicherung. Jeder bietet unterschiedliche Vorteile und Einschränkungen in Bezug auf Leistung, Skalierbarkeit, Zugänglichkeit, Integration, Compliance und Kostenoptimierung. Es gibt einige logische Standardoptionen. Wenn auf Ihrem aktuellen lokalen Dateisystem beispielsweise Windows Server ausgeführt wird, ist Amazon FSx for Windows File Server die Standardauswahl. Oder wenn auf dem lokalen Dateisystem NetApp ONTAP ausgeführt wird, ist Amazon FSx for NetApp ONTAP die Standardoption. Sie können jedoch einen Zieldienst wählen, der auf den Anforderungen Ihrer Anwendung basiert oder um andere Vorteile des Cloud-Betriebs zu nutzen. Weitere Informationen finden Sie unter [Auswahl des richtigen AWS Dateispeicherdienstes für Ihre Bereitstellung](https://d1.awsstatic.com/events/Summits/awsnycsummit/Choosing_the_right_AWS_file_storage_service_for_your_deployment_STG302.pdf) (AWS Summit-Präsentation).

**Auswahl eines Migrationstools**

Amazon EFS und Amazon FSx unterstützen die Verwendung von AWS DataSync zur Migration gemeinsam genutzter Dateisysteme auf die AWS Cloud. Weitere Informationen zu unterstützten Speichersystemen und Services, Vorteilen und Anwendungsfällen finden Sie unter [Was ist AWS DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/what-is-datasync.html). Einen Überblick darüber, wie Sie Ihre Dateien DataSync übertragen können, finden Sie unter [So funktionieren AWS DataSync Übertragungen](https://docs.aws.amazon.com/datasync/latest/userguide/how-datasync-transfer-works.html).

Es sind auch mehrere Tools von Drittanbietern verfügbar, darunter die folgenden:
+ Wenn Sie Amazon FSx for NetApp ONTAP wählen, können Sie NetApp SnapMirror damit die Dateien vom lokalen Rechenzentrum in die Cloud migrieren. SnapMirror verwendet eine Replikation auf Blockebene, die schneller als der Datenübertragungsprozess sein DataSync und dessen Dauer verkürzen kann. Weitere Informationen finden Sie unter [Migration zu FSx ](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/migrating-fsx-ontap-snapmirror.html) ONTAP using. NetApp SnapMirror
+ Wenn Sie sich FSx für Amazon for Windows File Server entscheiden, können Sie Robocopy verwenden, um Dateien in die Cloud zu migrieren. Weitere Informationen finden Sie unter [Migrieren vorhandener Dateien auf einen FSx Windows-Dateiserver mithilfe von Robocopy](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/migrate-files-to-fsx.html).

## Epen
<a name="migrate-shared-file-systems-in-an-aws-large-migration-epics"></a>

### Erkennen
<a name="discover"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie die SFS-Discovery-Arbeitsmappe vor. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html) | Migrationsingenieur, Migrationsleiter | 
| Sammeln Sie Informationen über das Quell-SFS. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html) | Migrationsingenieur, Migrationsleiter | 
| Sammeln Sie Informationen über die Server. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html) | Migrationsingenieur, Migrationsleiter | 

### Plan
<a name="plan"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Erstellen Sie den SFS-Wellenplan. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html) | Leiter Aufbau, Leiter der Umstellung, Migrationsingenieur, Migrationsleiter | 
| Wählen Sie das Ziel AWS-Service und das Migrationstool aus. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html) | Migrationsingenieur, Migrationsleiter | 

### Vorbereitung
<a name="prepare"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Richten Sie das Zieldateisystem ein. | Richten Sie gemäß den in Ihrem Wave-Plan aufgezeichneten Details die Zieldateisysteme im Ziel AWS-Konto, in der VPC und in den Subnetzen ein. Anweisungen finden Sie in der folgenden Dokumentation: AWS [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html) | Migrationsingenieur, Migrationsleiter, AWS-Administrator | 
| Richten Sie das Migrationstool ein und übertragen Sie Daten. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html) | AWS-Administrator, Cloud-Administrator, Migrationsingenieur, Migrationsleiter | 
| Aktualisieren Sie den Wave-Plan. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html) | Migrationsingenieur, Migrationsleiter | 

### Überschneiden
<a name="cut-over"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Stoppen Sie Anwendungen. | Wenn Anwendungen oder Clients aktiv Lese- und Schreibvorgänge im Quell-SFS ausführen, beenden Sie sie, bevor Sie die endgültige Datensynchronisierung durchführen. Anweisungen finden Sie in der Anwendungsdokumentation oder in Ihren internen Prozessen zum Stoppen von Lese- und Schreibaktivitäten. Siehe beispielsweise [Starten oder Beenden des Webservers (IIS 8)](https://learn.microsoft.com/en-us/previous-versions/windows/it-pro/windows-server-2012-r2-and-2012/jj635851(v=ws.11)) (Microsoft-Dokumentation) oder [Systemdienste mit systemctl verwalten](https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/8/html/configuring_basic_system_settings/managing-systemd_configuring-basic-system-settings#managing-system-services-with-systemctl_managing-systemd) (Red Hat-Dokumentation). | App-Besitzer, App-Entwickler | 
| Führen Sie die endgültige Datenübertragung durch. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html) | Migrationsingenieur, Migrationsleiter | 
| Validieren Sie die Datenübertragung. | Wenn Sie verwenden AWS DataSync, gehen Sie wie folgt vor, um zu überprüfen, ob die endgültige Datenübertragung erfolgreich abgeschlossen wurde:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html)Wenn Sie ein Drittanbieter-Tool verwenden, lesen Sie die Anweisungen zur Validierung der Datenübertragung in der Dokumentation zum ausgewählten Migrationstool. | Migrationsingenieur, Migrationsleiter | 

### Validieren
<a name="validate"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Hängen Sie das Dateisystem erneut ein und überprüfen Sie die Funktion und Leistung der Anwendung. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-shared-file-systems-in-an-aws-large-migration.html) | AWS-Systemadministrator, App-Besitzer | 

## Fehlerbehebung
<a name="migrate-shared-file-systems-in-an-aws-large-migration-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Zellenwerte in Microsoft Excel werden nicht aktualisiert. | Kopieren Sie die Formeln in den Beispielzeilen, indem Sie das Ausfüllkästchen ziehen. Weitere Informationen finden Sie in den Anweisungen für [Windows](https://support.microsoft.com/en-us/office/fill-a-formula-down-into-adjacent-cells-041edfe2-05bc-40e6-b933-ef48c3f308c6) oder für [Mac](https://support.microsoft.com/en-au/office/copy-a-formula-by-dragging-the-fill-handle-in-excel-for-mac-dd928259-622b-473f-9a33-83aa1a63e218) (Microsoft-Support-Website). | 

## Zugehörige Ressourcen
<a name="migrate-shared-file-systems-in-an-aws-large-migration-resources"></a>

**AWS Dokumentation**
+ [AWS DataSync Dokumentation](https://docs.aws.amazon.com/datasync/latest/userguide/what-is-datasync.html)
+ [Amazon EFS-Dokumentation](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html)
+ [ FSx Amazon-Dokumentation](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/index.html)
+ [Große Migrationen zum AWS Cloud](https://aws.amazon.com/prescriptive-guidance/large-migrations/)
  + [Leitfaden für große Migrationen AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/large-migration-guide/welcome.html)
  + [Portfolio-Playbook für große Migrationen AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/large-migration-portfolio-playbook/welcome.html)

**Fehlersuche**
+ [AWS DataSync Behebung von Problemen](https://docs.aws.amazon.com/datasync/latest/userguide/troubleshooting-datasync.html)
+ [Problembehandlung bei Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/troubleshooting.html)
+ [Problembehebung bei Amazon FSx für Windows File Server](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/troubleshooting.html)
+ [Problembehebung bei Amazon FSx für NetApp ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/troubleshooting.html)

## Anlagen
<a name="attachments-a30cf791-7a8a-4f71-8927-bc61f3b332f2"></a>

[Um auf zusätzliche Inhalte zuzugreifen, die mit diesem Dokument verknüpft sind, entpacken Sie die folgende Datei: attachment.zip](samples/p-attach/a30cf791-7a8a-4f71-8927-bc61f3b332f2/attachments/attachment.zip)

# Migrieren Sie eine Oracle-Datenbank mithilfe von GoldenGate Oracle-Flatfile-Adaptern zu Amazon RDS for Oracle
<a name="migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters"></a>

*Dhairya Jindani und Baji Shaik, Amazon Web Services*

## Zusammenfassung
<a name="migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters-summary"></a>

Oracle GoldenGate ist ein Datenerfassungs- und Replikationsservice in Echtzeit für heterogene Datenbanken und IT-Umgebungen. Dieser Service unterstützt derzeit jedoch nicht Amazon Relational Database Service (Amazon RDS) für Oracle. Eine Liste der unterstützten Datenbanken finden Sie unter [Oracle GoldenGate for Heterogeneous Databases](https://docs.oracle.com/goldengate/c1230/gg-winux/GGHDB/12.3-what-is-oracle-goldengate-heterogeneous-databases.htm#GGHDB-GUID-08EAC588-F76C-4E37-BEBA-0DC57B98CA46) (Oracle-Dokumentation). Dieses Muster beschreibt, wie Oracle GoldenGate - und GoldenGate Oracle-Flatfile-Adapter verwendet werden, um Flatfiles aus der Oracle-Quelldatenbank zu generieren, die sich lokal oder auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance befinden kann. Sie können diese Flatfiles dann in eine Amazon RDS for Oracle Oracle-Datenbank-Instance importieren.

In diesem Muster verwenden Sie Oracle, GoldenGate um die Traildateien aus Ihrer Oracle-Quelldatenbank zu extrahieren. Die Datenpumpe kopiert die Traildateien auf einen Integrationsserver, bei dem es sich um eine EC2 Amazon-Instance handelt. Auf dem Integrationsserver GoldenGate verwendet Oracle den Flatfile-Adapter, um eine Reihe von sequentiellen Flatfiles auf der Grundlage der transationalen Datenerfassung der Traildateien zu generieren. Oracle GoldenGate formatiert die Daten entweder als durch Trennzeichen getrennte Werte oder als durch Länge getrennte Werte. Anschließend verwenden Sie Oracle SQL\$1Loader, um die Flatfiles in die Amazon RDS for Oracle Oracle-Zieldatenbank-Instance zu importieren.

**Beabsichtigte Zielgruppe**

Dieses Muster richtet sich an Personen, die Erfahrung mit den grundlegenden Bausteinen eines GoldenGate Orakels haben und diese kennen. Weitere Informationen finden Sie unter [Überblick über die GoldenGate Oracle-Architektur](https://docs.oracle.com/goldengate/1212/gg-winux/GWUAD/wu_about_gg.htm#GWUAD115) (Oracle-Dokumentation).

## Voraussetzungen und Einschränkungen
<a name="migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters-prereqs"></a>

**Voraussetzungen**
+ Ein aktiver AWS-Konto.
+ Eine GoldenGate Oracle-Lizenz.
+ Eine separate Lizenz für einen GoldenGate Oracle-Adapter.
+ Eine Oracle-Quelldatenbank, die entweder vor Ort oder auf einer EC2 Amazon-Instance ausgeführt wird.
+ Eine Amazon EC2 Linux-Instance, die als Integrationsserver verwendet wird. Weitere Informationen finden [Sie unter Erste Schritte mit Amazon EC2 Linux-Instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EC2_GetStarted.html) ( EC2 Amazon-Dokumentation).
+ Eine Ziel-Instance der Amazon RDS for Oracle Oracle-Datenbank. Weitere Informationen finden Sie unter [Eine Oracle-DB-Instance erstellen](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_GettingStarted.CreatingConnecting.Oracle.html) (Amazon RDS-Dokumentation).

**Produktversionen**
+ Oracle Database Enterprise Edition Version 10g, 11g, 12c oder höher
+ Oracle GoldenGate Version 12.2.0.1.1 oder höher

## Architektur
<a name="migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters-architecture"></a>

**Quelltechnologie-Stack**

Eine Oracle-Datenbank (vor Ort oder auf einer EC2 Amazon-Instance)

**Zieltechnologie-Stack**

Amazon RDS für Oracle

**Quell- und Zielarchitektur**

![\[Migrieren einer Oracle-Datenbank zu Amazon RDS for Oracle mithilfe eines GoldenGate Oracle-Adapters.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/f34961f7-aa9a-41cb-b1ea-522e36ef2f67/images/21ef5177-e669-4591-aced-28d2f22decf2.png)


1. Oracle GoldenGate extrahiert Pfade aus den Quelldatenbank-Logs.

1. Die Datenpumpe extrahiert die Trails und migriert sie auf einen Integrationsserver.

1. Der GoldenGate Oracle-Flatfile-Adapter liest die Trails, Quelldefinitionen und Extraktparameter.

1. Sie beenden die Extraktion, wodurch eine Steuerdatei und Flat-Datendateien generiert werden.

1. Sie migrieren die Flat-Datendateien auf eine Amazon RDS for Oracle Oracle-Datenbank-Instance in der AWS Cloud.

## Tools
<a name="migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters-tools"></a>

**AWS-Services**
+ [Amazon Elastic Compute Cloud (Amazon EC2)](https://docs.aws.amazon.com/ec2/) bietet skalierbare Rechenkapazität in der AWS Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.
+ [Amazon Relational Database Service (Amazon RDS)](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) für Oracle unterstützt Sie bei der Einrichtung, dem Betrieb und der Skalierung einer relationalen Oracle-Datenbank in der. AWS Cloud

**Andere Dienste**
+ [Oracle GoldenGate](https://docs.oracle.com/goldengate/1212/gg-winux/GWUAD/wu_about_gg.htm#GWUAD110) ist ein Dienst, der Sie dabei unterstützt, Daten von einer Datenbank in eine andere heterogene Datenbank oder in eine andere Zieltopologie, wie z. B. Flatfiles, zu replizieren, zu filtern und zu transformieren.
+ Mit [ GoldenGate Oracle-Anwendungsadaptern](https://docs.oracle.com/goldengate/gg121211/gg-adapter/GADAD/flatfile_config.htm#GADAD424) GoldenGate kann Oracle aus Transaktionsdaten, die in den Traildateien einer Quelldatenbank erfasst wurden, eine Reihe von sequentiellen Flatfiles und Kontrolldateien erstellen. Diese Adapter werden häufig für Extraktions-, Transformations- und Ladevorgänge (ETL) in Data Warehouse-Anwendungen und proprietären oder älteren Anwendungen verwendet. Oracle GoldenGate führt diese Erfassung durch und wendet sie nahezu in Echtzeit auf heterogene Datenbanken, Plattformen und Betriebssysteme an. Die Adapter unterstützen verschiedene Formate für die Ausgabedateien, wie CSV oder Apache Parquet. Sie können diese generierten Dateien laden, um die Daten in verschiedene heterogene Datenbanken zu laden.

## Epen
<a name="migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters-epics"></a>

### Richten Sie Oracle GoldenGate auf dem Quelldatenbankserver ein
<a name="set-up-oracle-goldengate-on-the-source-database-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie Oracle herunter GoldenGate. | Laden Sie auf dem Quelldatenbankserver die GoldenGate Oracle-Version 12.2.0.1.1 oder höher herunter. Anweisungen finden Sie unter [Oracle herunterladen GoldenGate (Oracle-Dokumentation](https://docs.oracle.com/goldengate/1212/gg-winux/GIORA/install.htm#GIORA164)). | DBA | 
| Installieren Sie Oracle GoldenGate. | Anweisungen finden Sie unter [Oracle installieren GoldenGate (Oracle-Dokumentation](https://docs.oracle.com/goldengate/1212/gg-winux/GIORA/install.htm#GIORA162)). | DBA | 
| Richten Sie Oracle GoldenGate ein. | Anweisungen finden Sie unter [Preparing the Database for Oracle GoldenGate](https://docs.oracle.com/goldengate/1212/gg-winux/GIORA/setup.htm#GIORA357) (Oracle-Dokumentation). | DBA | 

### Richten Sie Oracle GoldenGate auf dem Integrationsserver ein
<a name="set-up-oracle-goldengate-on-the-integration-server"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Laden Sie Oracle herunter GoldenGate. | Laden Sie auf dem Integrationsserver die GoldenGate Oracle-Version 12.2.0.1.1 oder höher herunter. Anweisungen finden Sie unter [Oracle herunterladen GoldenGate (Oracle-Dokumentation](https://docs.oracle.com/goldengate/1212/gg-winux/GIORA/install.htm#GIORA164)). | DBA | 
| Installieren Sie Oracle GoldenGate. | Erstellen Sie Verzeichnisse, richten Sie den Manager-Prozess ein und erstellen Sie die `defgen` Datei für eine heterogene Umgebung. Anweisungen finden Sie unter [Oracle installieren GoldenGate (Oracle-Dokumentation](https://docs.oracle.com/goldengate/1212/gg-winux/GIORA/install.htm#GIORA162)). | DBA | 

### Ändern Sie die GoldenGate Oracle-Datenerfassungskonfiguration
<a name="change-the-oracle-goldengate-data-capture-configuration"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Bereiten Sie die GoldenGate Oracle-Adapter vor. | Richten Sie auf dem Integrationsserver die GoldenGate Oracle-Adaptersoftware ein. Gehen Sie wie folgt vor:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters.html) | DBA | 
| Konfigurieren Sie die Datenpumpe. | Konfigurieren Sie auf dem Quellserver die Datenpumpe so, dass sie die Traildatei vom Quellserver zum Integrationsserver überträgt. Erstellen Sie die Datenpumpen-Parameterdatei und das Trails-Dateiverzeichnis. Anweisungen finden Sie unter [Konfiguration des Flatfile-Adapters](https://docs.oracle.com/goldengate/gg12201/gg-adapter/GADAD/GUID-DF13488D-E0E9-497C-8AFF-70B839DE4843.htm#GADAD424) (Oracle-Dokumentation). | DBA | 

### Generieren und migrieren Sie die Flatfiles
<a name="generate-and-migrate-the-flat-files"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Generieren Sie die Flatfiles. | Erstellen Sie die Extraktdatei und die Kontrolldatei und starten Sie dann den Extraktionsprozess auf dem Integrationsserver. Dadurch werden die Datenbankänderungen extrahiert und die Quelldatenbank in die Flatfiles geschrieben. Anweisungen finden Sie unter [Using the Flat File Adapter](https://docs.oracle.com/goldengate/gg12201/gg-adapter/GADAD/GUID-D30CC70D-B90F-4209-BEB5-9BA53EA869EF.htm#GADAD432) (Oracle-Dokumentation). | DBA | 
| Laden Sie die Flatfiles in die Zieldatenbank. | Laden Sie die Flatfiles in die Ziel-Instance der Amazon RDS for Oracle Oracle-Datenbank. Weitere Informationen finden Sie unter [Import mit Oracle SQL\$1Loader](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Oracle.Procedural.Importing.SQLLoader.html) (Amazon RDS-Dokumentation). | DBA | 

## Fehlerbehebung
<a name="migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters-troubleshooting"></a>


| Problem | Lösung | 
| --- | --- | 
| Der GoldenGate Oracle-Flatfile-Adapter generiert einen Fehler. | Eine Beschreibung der Adapterfehler finden Sie unter [Locating Error Messages](https://docs.oracle.com/goldengate/gg12201/gg-adapter/GADAD/GUID-D30CC70D-B90F-4209-BEB5-9BA53EA869EF.htm#GADAD437) (Oracle-Dokumentation). Anweisungen zur Problembehandlung finden Sie unter [Troubleshooting the Flat File Adapter](https://docs.oracle.com/goldengate/gg12201/gg-adapter/GADAD/GUID-CB3D9B2C-49CC-408A-8C00-06E0C7923DD6.htm#GADAD552) (Oracle-Dokumentation). | 

## Zugehörige Ressourcen
<a name="migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters-resources"></a>
+ [Oracle installieren GoldenGate](https://docs.oracle.com/goldengate/1212/gg-winux/GIORA/install.htm#GIORA162) (Oracle-Dokumentation)
+ [Oracle konfigurieren GoldenGate](https://docs.oracle.com/goldengate/1212/gg-winux/GIORA/setup.htm#GIORA357) (Oracle-Dokumentation)
+ [Grundlegendes zu GoldenGate Oracle-Adaptern](https://docs.oracle.com/goldengate/gg12201/gg-adapter/GADAD/GUID-F9105B02-9836-4F98-99F8-6E9C46D42764.htm#GADAD101) (Oracle-Dokumentation)
+ [Konfiguration des Flatfile-Adapters](https://docs.oracle.com/goldengate/gg12201/gg-adapter/GADAD/GUID-DF13488D-E0E9-497C-8AFF-70B839DE4843.htm#GADAD424) (Oracle-Dokumentation)

# Ändern Sie Python- und Perl-Anwendungen, um die Datenbankmigration von Microsoft SQL Server zur Amazon Aurora PostgreSQL-Compatible Edition zu unterstützen
<a name="change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition"></a>

*Dwarika Patra und Deepesh Jayaprakash, Amazon Web Services*

## Zusammenfassung
<a name="change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition-summary"></a>

Dieses Muster beschreibt Änderungen an Anwendungs-Repositorys, die möglicherweise erforderlich sind, wenn Sie Datenbanken von Microsoft SQL Server zu Amazon Aurora PostgreSQL-Compatible Edition migrieren. Das Muster geht davon aus, dass diese Anwendungen auf Python oder Perl basieren, und enthält separate Anweisungen für diese Skriptsprachen.

Die Migration von SQL Server-Datenbanken zu Aurora PostgreSQL-kompatibel umfasst die Schemakonvertierung, die Konvertierung von Datenbankobjekten, die Datenmigration und das Laden von Daten. Aufgrund der Unterschiede zwischen PostgreSQL und SQL Server (in Bezug auf Datentypen, Verbindungsobjekte, Syntax und Logik) besteht die schwierigste Migrationsaufgabe darin, die erforderlichen Änderungen an der Codebasis vorzunehmen, damit sie ordnungsgemäß mit PostgreSQL funktioniert.

Bei einer Python-basierten Anwendung sind Verbindungsobjekte und Klassen im gesamten System verstreut. Außerdem verwendet die Python-Codebasis möglicherweise mehrere Bibliotheken, um eine Verbindung zur Datenbank herzustellen. Wenn sich die Datenbankverbindungsschnittstelle ändert, müssen auch die Objekte, die die Inline-Abfragen der Anwendung ausführen, geändert werden.

Bei einer Perl-basierten Anwendung betreffen die Änderungen Verbindungsobjekte, Datenbankverbindungstreiber, statische und dynamische Inline-SQL-Anweisungen und die Art und Weise, wie die Anwendung komplexe dynamische DML-Abfragen und Ergebnismengen verarbeitet.

Wenn Sie Ihre Anwendung migrieren, können Sie auch mögliche Verbesserungen auf AWS in Betracht ziehen, z. B. den FTP-Server durch Amazon Simple Storage Service (Amazon S3) -Zugriff zu ersetzen.

Der Prozess der Anwendungsmigration beinhaltet die folgenden Herausforderungen:
+ Verbindungsobjekte. Wenn Verbindungsobjekte im Code mit mehreren Bibliotheken und Funktionsaufrufen verstreut sind, müssen Sie möglicherweise einen generalisierten Weg finden, sie so zu ändern, dass sie PostgreSQL unterstützen.
+ Fehler- oder Ausnahmebehandlung beim Abrufen oder bei Aktualisierungen von Datensätzen. Wenn Sie in der Datenbank bedingte Erstellungs-, Lese-, Aktualisierungs- und Löschvorgänge (CRUD) ausführen, die Variablen, Ergebnissätze oder Datenrahmen zurückgeben, können Fehler oder Ausnahmen zu Anwendungsfehlern mit kaskadierenden Effekten führen. Diese sollten sorgfältig behandelt und mit geeigneten Validierungen und Speicherpunkten versehen werden. Ein solcher Speicherpunkt ist das Aufrufen großer Inline-SQL-Abfragen oder Datenbankobjekte innerhalb `BEGIN...EXCEPTION...END` von Blöcken.
+ Steuerung von Transaktionen und deren Validierung. Dazu gehören manuelle und automatische Commits und Rollbacks. Der PostgreSQL-Treiber für Perl verlangt, dass Sie das Auto-Commit-Attribut immer explizit setzen.
+ Umgang mit dynamischen SQL-Abfragen. Dies erfordert ein fundiertes Verständnis der Abfragelogik und iterative Tests, um sicherzustellen, dass Abfragen wie erwartet funktionieren.
+ Leistung. Sie sollten sicherstellen, dass Codeänderungen nicht zu einer Beeinträchtigung der Anwendungsleistung führen.

Dieses Muster erklärt den Konvertierungsprozess im Detail.

## Voraussetzungen und Einschränkungen
<a name="change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition-prereqs"></a>

**Voraussetzungen**
+ Grundkenntnisse der Python- und Perl-Syntax.
+ Grundkenntnisse in SQL Server und PostgreSQL.
+ Verständnis Ihrer bestehenden Anwendungsarchitektur.
+ Zugriff auf Ihren Anwendungscode, Ihre SQL Server-Datenbank und Ihre PostgreSQL-Datenbank.
+ Zugriff auf die Windows- oder Linux-Entwicklungsumgebung (oder eine andere Unix-) Entwicklungsumgebung mit Anmeldeinformationen zum Entwickeln, Testen und Validieren von Anwendungsänderungen.
+ Für eine Python-basierte Anwendung Standard-Python-Bibliotheken, die Ihre Anwendung möglicherweise benötigt, wie **Pandas** zur Verarbeitung von Datenframes und **psycopg2** oder für Datenbankverbindungen. **SQLAlchemy**
+ Für eine Perl-basierte Anwendung sind Perl-Pakete mit abhängigen Bibliotheken oder Modulen erforderlich. Das Modul Comprehensive Perl Archive Network (CPAN) kann die meisten Anwendungsanforderungen unterstützen.
+ Alle erforderlichen abhängigen benutzerdefinierten Bibliotheken oder Module. 
+ Datenbankanmeldedaten für den Lesezugriff auf SQL Server und read/write den Zugriff auf Aurora.
+ PostgreSQL zum Validieren und Debuggen von Anwendungsänderungen mit Diensten und Benutzern.
+ Zugriff auf Entwicklungstools während der Anwendungsmigration wie Visual Studio Code, Sublime Text oder **pgAdmin**.

**Einschränkungen**
+ Einige Python- oder Perl-Versionen, Module, Bibliotheken und Pakete sind nicht mit der Cloud-Umgebung kompatibel.
+ Einige Bibliotheken und Frameworks von Drittanbietern, die für SQL Server verwendet werden, können nicht ersetzt werden, um die PostgreSQL-Migration zu unterstützen. 
+ Leistungsschwankungen erfordern möglicherweise Änderungen an Ihrer Anwendung, an Inline-Transact-SQL (T-SQL) -Abfragen, Datenbankfunktionen und gespeicherten Prozeduren.
+ PostgreSQL unterstützt Kleinbuchstaben für Tabellennamen, Spaltennamen und andere Datenbankobjekte. 
+ Einige Datentypen, wie z. B. UUID-Spalten, werden nur in Kleinbuchstaben gespeichert. Python- und Perl-Anwendungen müssen mit solchen Fallunterschieden umgehen. 
+ Unterschiede in der Zeichenkodierung müssen mit dem richtigen Datentyp für die entsprechenden Textspalten in der PostgreSQL-Datenbank behandelt werden.                                

**Produktversionen**
+ Python 3.6 oder höher (verwenden Sie die Version, die Ihr Betriebssystem unterstützt)
+ Perl 5.8.3 oder höher (verwenden Sie die Version, die Ihr Betriebssystem unterstützt)
+ [Aurora PostgreSQL-kompatible Edition 4.2 oder höher (siehe Details)](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.Updates.20180305.html#AuroraPostgreSQL.Updates.20180305.42)

## Architektur
<a name="change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition-architecture"></a>

**Quelltechnologie-Stack**
+ Skriptsprache (Anwendungsprogrammiersprache): Python 2.7 oder höher oder Perl 5.8 
+ Datenbank: Microsoft SQL Server Version 13
+ Betriebssystem: Red Hat Enterprise Linux (RHEL) 7 

**Zieltechnologie-Stack**
+ Skriptsprache (Anwendungsprogrammiersprache): Python 3.6 oder höher oder Perl 5.8 oder höher 
+ Datenbank: Aurora PostgreSQL-kompatibel 4.2
+ Betriebssystem: RHEL 7 

**Migrationsarchitektur**

![\[Migration einer Perl- oder Python-Anwendung mit SQL Server zu Aurora PostgreSQL-kompatibel\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/images/pattern-img/b64de64a-bd55-4db7-ba7b-0a2557862af1/images/b8fab3e2-ded5-4f58-86bf-3f645252e9fc.png)


## Tools
<a name="change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition-tools"></a>

**AWS-Services und -Tools**
+ [Aurora PostgreSQL-Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) ist eine vollständig verwaltete, PostgreSQL-kompatible und ACID-konforme relationale Datenbank-Engine, die die Geschwindigkeit und Zuverlässigkeit kommerzieller High-End-Datenbanken mit der Wirtschaftlichkeit von Open-Source-Datenbanken kombiniert. Aurora PostgreSQL ist ein direkter Ersatz für PostgreSQL und macht es einfacher und kostengünstiger, Ihre neuen und bestehenden PostgreSQL-Implementierungen einzurichten, zu betreiben und zu skalieren.
+ [AWS Command Line Interface (AWS CLI)](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-welcome.html) ist ein Open-Source-Tool, mit dem Sie mithilfe von Befehlen in Ihrer Befehlszeilen-Shell mit AWS-Services interagieren können.

**Andere Tools**
+ [Python](https://www.python.org/) [- und PostgresSQL-Datenbankverbindungsbibliotheken wie psycopg2 und [SQLAlchemy](https://www.sqlalchemy.org/)](https://pypi.org/project/psycopg2/)
+ [https://www.perl.org/](https://www.perl.org/)
+ [Interaktives PostgreSQL-Terminal (psql](https://www.postgresql.org/docs/13/app-psql.html))

## Epen
<a name="change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition-epics"></a>

### Migrieren Sie Ihr Anwendungs-Repository zu PostgreSQL — grundlegende Schritte
<a name="migrate-your-application-repository-to-postgresql-ndash-high-level-steps"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Folgen Sie diesen Schritten zur Codekonvertierung, um Ihre Anwendung zu PostgreSQL zu migrieren. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition.html)Die folgenden Epics enthalten detaillierte Anweisungen für einige dieser Konvertierungsaufgaben für Python- und Perl-Anwendungen. | App-Developer | 
| Verwenden Sie für jeden Schritt der Migration eine Checkliste. | Fügen Sie Ihrer Checkliste für jeden Schritt der Anwendungsmigration, einschließlich des letzten Schritts, Folgendes hinzu:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition.html) | App-Developer | 

### Analysieren und aktualisieren Sie Ihre Anwendung — Python-Codebasis
<a name="analyze-and-update-your-application-ndash-python-code-base"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Analysieren Sie Ihre bestehende Python-Codebasis.  | Ihre Analyse sollte Folgendes beinhalten, um den Migrationsprozess der Anwendung zu erleichtern:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition.html) | App-Developer | 
| Konvertieren Sie Ihre Datenbankverbindungen zur Unterstützung von PostgreSQL.  | Die meisten Python-Anwendungen verwenden die **pyodbc-Bibliothek**, um wie folgt eine Verbindung mit SQL Server-Datenbanken herzustellen.<pre>import pyodbc<br />....<br />try:<br />    conn_string = "Driver=ODBC Driver 17 for SQL<br />    Server;UID={};PWD={};Server={};Database={}".format (conn_user, conn_password,<br />    conn_server, conn_database)<br />    conn = pyodbc.connect(conn_string)<br />    cur = conn.cursor()<br />    result = cur.execute(query_string)<br />    for row in result:<br />    print (row)<br />except Exception as e:<br />    print(str(e))</pre>Konvertieren Sie die Datenbankverbindung wie folgt zur Unterstützung von PostgreSQL.<pre>import pyodbc<br />import psycopg2<br />....<br />try:<br />    conn_string = ‘postgresql+psycopg2://’+<br />    conn_user+’:’+conn_password+’@’+conn_server+’/’+conn_database<br />    conn = pyodbc.connect(conn_string, connect_args={‘options’:’-csearch_path=dbo’})<br />    cur = conn.cursor()<br />    result = cur.execute(query_string)<br />    for row in result:<br />    print (row)<br />except Exception as e:<br />    print(str(e))</pre> | App-Developer | 
| Ändern Sie Inline-SQL-Abfragen in PostgreSQL. | Konvertieren Sie Ihre Inline-SQL-Abfragen in ein PostgreSQL-kompatibles Format. Die folgende SQL Server-Abfrage ruft beispielsweise eine Zeichenfolge aus einer Tabelle ab.<pre>dtype = "type1"<br />stm = ‘"SELECT TOP 1 searchcode FROM TypesTable (NOLOCK)<br />WHERE code="’ + "’" + str(dtype) + "’"<br /># For Microsoft SQL Server Database Connection<br />engine = create_engine(‘mssql+pyodbc:///?odbc_connect=%s’ % urllib.parse.quote_plus(conn_string), connect_args={‘connect_timeout’:login_timeout})<br />conn = engine_connect()<br />rs = conn.execute(stm)<br />for row in rs:<br />    print(row)</pre>Nach der Konvertierung sieht die PostgreSQL-kompatible Inline-SQL-Abfrage wie folgt aus.<pre>dtype = "type1"<br />stm = ‘"SELECT searchcode FROM TypesTable<br />WHERE code="’ + "’" + str(dtype) + "’ LIMIT 1"<br /># For PostgreSQL Database Connection<br />engine = create_engine(‘postgres+psycopg2://%s’ %conn_string, connect_args={‘connect_timeout’:login_timeout})<br />conn = engine.connect()<br />rs = conn.execute(stm)<br />for row in rs:<br />    print(row)</pre> | App-Developer | 
| Verarbeitet dynamische SQL-Abfragen. | Dynamisches SQL kann in einem Skript oder in mehreren Python-Skripten vorhanden sein. Frühere Beispiele zeigten, wie die Zeichenkettenersetzungsfunktion von Python verwendet werden kann, um Variablen für die Erstellung dynamischer SQL-Abfragen einzufügen. Ein alternativer Ansatz besteht darin, die Abfragezeichenfolge gegebenenfalls mit Variablen anzuhängen. Im folgenden Beispiel wird die Abfragezeichenfolge spontan auf der Grundlage der von einer Funktion zurückgegebenen Werte erstellt.<pre>query = ‘"SELECT id from equity e join issues i on e.permId=i.permId where e.id’"<br />query += get_id_filter(ids) + " e.id is NOT NULL</pre>Diese Arten von dynamischen Abfragen sind bei der Anwendungsmigration sehr verbreitet. Gehen Sie wie folgt vor, um dynamische Abfragen zu verarbeiten:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition.html) | App-Developer | 
| Behandelt Ergebnismengen, Variablen und Datenrahmen. | Für Microsoft SQL Server verwenden Sie Python-Methoden wie `fetchone()` oder`fetchall()`, um den Ergebnissatz aus der Datenbank abzurufen. Sie können auch die Anzahl der Datensätze verwenden `fetchmany(size)` und angeben, die aus dem Ergebnissatz zurückgegeben werden sollen. Dazu können Sie das Verbindungsobjekt **pyodbc** verwenden, wie im folgenden Beispiel gezeigt.**pyodbc (Microsoft SQL Server)**<pre>import pyodbc <br />server = 'tcp:myserver.database.windows.net' <br />database = 'exampledb' <br />username = 'exampleusername' <br />password = 'examplepassword' <br />conn = pyodbc.connect('DRIVER={ODBC Driver 17 for SQL Server};SERVER='+server+';DATABASE='+database+';UID='+username+';PWD='+ password)<br />cursor = conn.cursor()<br />cursor.execute("SELECT * FROM ITEMS") <br />row = cursor.fetchone() <br />while row: <br />    print(row[0])<br />    row = cursor.fetchone()</pre>**Um in Aurora ähnliche Aufgaben wie das Herstellen einer Verbindung zu PostgreSQL und das Abrufen von Ergebnismengen auszuführen, können Sie entweder psycopg2 oder verwenden. **SQLAlchemy**** Diese Python-Bibliotheken stellen das Verbindungsmodul und das Cursorobjekt bereit, um die PostgreSQL-Datenbankeinträge zu durchsuchen, wie im folgenden Beispiel gezeigt.**psycopg2 (Aurora PostgreSQL-kompatibel)**<pre>import psycopg2<br />query = "SELECT * FROM ITEMS;"<br />//Initialize variables<br />host=dbname=user=password=port=sslmode=connect_timeout=""<br />connstring = "host='{host}' dbname='{dbname}' user='{user}' \<br />password='{password}'port='{port}'".format(host=host,dbname=dbname,\<br />user=user,password=password,port=port) <br />conn = psycopg2.connect(connstring)<br />cursor = conn.cursor()<br />cursor.execute(query)<br />column_names = [column[0] for column in cursor.description]<br />print("Column Names: ", column_names)<br />print("Column values: "<br />for row in cursor:<br />    print("itemid :", row[0])<br />    print("itemdescrption :", row[1])<br />    print("itemprice :", row[3]))</pre>**SQLAlchemy (Aurora PostgreSQL-kompatibel)**<pre>from sqlalchemy import create_engine<br />from pandas import DataFrame<br />conn_string = 'postgresql://core:database@localhost:5432/exampledatabase'<br />engine = create_engine(conn_string)<br />conn = engine.connect()<br />dataid = 1001<br />result = conn.execute("SELECT * FROM ITEMS")<br />df = DataFrame(result.fetchall())<br />df.columns = result.keys()<br />df = pd.DataFrame()<br />engine.connect()<br />df = pd.read_sql_query(sql_query, engine, coerce_float=False)<br />print("df=", df)</pre> | App-Developer | 
| Testen Sie Ihre Anwendung während und nach der Migration. | Das Testen der migrierten Python-Anwendung ist ein fortlaufender Prozess. Da die Migration Änderungen an Verbindungsobjekten (**psycopg2** oder **SQLAlchemy**), Fehlerbehandlung, neue Funktionen (Datenrahmen), Inline-SQL-Änderungen, Funktionen zum Massenkopieren (`bcp`statt`COPY`) und ähnliche Änderungen umfasst, muss sie während und nach der Anwendungsmigration sorgfältig getestet werden. Suchen Sie nach:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition.html) | App-Developer | 

### Analysieren und aktualisieren Sie Ihre Anwendung — Perl-Codebasis
<a name="analyze-and-update-your-application-ndash-perl-code-base"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Analysieren Sie Ihre bestehende Perl-Codebasis. | Ihre Analyse sollte Folgendes beinhalten, um den Anwendungsmigrationsprozess zu erleichtern. Sie sollten Folgendes identifizieren:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition.html) | App-Developer | 
| Konvertiert die Verbindungen aus der Perl-Anwendung und dem DBI-Modul zur Unterstützung von PostgreSQL. | Perl-basierte Anwendungen verwenden im Allgemeinen das Perl-DBI-Modul, ein Standard-Datenbankzugriffsmodul für die Programmiersprache Perl. Sie können dasselbe DBI-Modul mit unterschiedlichen Treibern für SQL Server und PostgreSQL verwenden.Weitere Informationen zu den erforderlichen Perl-Modulen, Installationen und anderen Anweisungen finden Sie in der [DBD](https://metacpan.org/pod/DBD::Pg): :Pg-Dokumentation. Das folgende Beispiel stellt eine Verbindung zu Aurora PostgreSQL-Compatible unter her. `exampletest-aurorapg-database.cluster-sampleclusture.us-east.-rds.amazonaws.com`<pre>#!/usr/bin/perl<br />use DBI;<br />use strict;<br />my $driver = "Pg";<br />my $hostname = "exampletest-aurorapg-database-sampleclusture.us-east.rds.amazonaws.com"<br />my $dsn = "DBI:$driver: dbname = $hostname;host = 127.0.0.1;port = 5432";<br />my $username = "postgres";<br />my $password = "pass123";<br />$dbh = DBI->connect("dbi:Pg:dbname=$hostname;host=$host;port=$port;options=$options",<br />      $username,<br />      $password,<br />      {AutoCommit => 0, RaiseError => 1, PrintError => 0}<br />      );</pre> | App-Developer | 
| Ändern Sie Inline-SQL-Abfragen in PostgreSQL. | Ihre Anwendung verfügt möglicherweise über Inline-SQL-Abfragen mit`SELECT`, `DELETE``UPDATE`, und ähnlichen Anweisungen, die Abfrageklauseln enthalten, die PostgreSQL nicht unterstützt. Beispielsweise werden Abfrageschlüsselwörter wie `TOP` und in PostgreSQL `NOLOCK` nicht unterstützt. Die folgenden Beispiele zeigen, wie Sie mit`TOP`, und booleschen `NOLOCK` Variablen umgehen können.In SQL Server:<pre>$sqlStr = $sqlStr<br />. "WHERE a.student_id in (SELECT TOP $numofRecords c_student_id   \<br />FROM active_student_record b WITH (NOLOCK) \<br />INNER JOIN student_contributor c WITH (NOLOCK) on c.contributor_id = b.c_st)</pre>Für PostgreSQL konvertieren Sie in:<pre>$sqlStr = $sqlStr<br />. "WHERE a.student_id in (SELECT TOP $numofRecords c_student_id  \<br />FROM active_student_record b INNER JOIN student_contributor c  \<br />on c.contributor_id = b.c_student_contr_id WHERE b_current_1 is true \<br />LIMIT $numofRecords)"</pre> | App-Developer | 
| Verarbeitet dynamische SQL-Abfragen und Perl-Variablen. | Dynamische SQL-Abfragen sind SQL-Anweisungen, die zur Laufzeit der Anwendung erstellt werden. Diese Abfragen werden je nach bestimmten Bedingungen dynamisch erstellt, wenn die Anwendung ausgeführt wird, sodass der vollständige Text der Abfrage erst zur Laufzeit bekannt ist. Ein Beispiel ist eine Finanzanalyseanwendung, die täglich die zehn wichtigsten Aktien analysiert, und diese Aktien ändern sich täglich. Die SQL-Tabellen werden auf der Grundlage von Top-Performern erstellt, und die Werte sind erst zur Laufzeit bekannt.Nehmen wir an, dass die Inline-SQL-Abfragen für dieses Beispiel an eine Wrapper-Funktion übergeben werden, um die Ergebnisse in einer Variablen zu erhalten, und dann verwendet eine Variable eine Bedingung, um zu bestimmen, ob die Tabelle existiert:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition.html)Hier ist ein Beispiel für die Variablenbehandlung, gefolgt von den SQL Server- und PostgreSQL-Abfragen für diesen Anwendungsfall.<pre>my $tableexists = db_read( arg 1, $sql_qry, undef, 'writer');<br />my $table_already_exists = $tableexists->[0]{table_exists};<br />if ($table_already_exists){<br /># do some thing<br />}<br />else {<br /># do something else<br />}</pre>SQL Server:<pre>my $sql_qry = "SELECT OBJECT_ID('$backendTable', 'U') table_exists", undef, 'writer')";</pre>PostgreSQL:<pre>my $sql_qry = "SELECT TO_REGCLASS('$backendTable', 'U') table_exists", undef, 'writer')";</pre>Im folgenden Beispiel wird eine**** Perl-Variable in Inline-SQL verwendet, die eine `SELECT` Anweisung mit a ausführt, `JOIN` um den Primärschlüssel der Tabelle und die Position der Schlüsselspalte abzurufen.SQL Server:<pre>my $sql_qry = "SELECT column_name', character_maxi mum_length \<br />FROM INFORMATION_SCHEMA.COLUMNS \<br />WHERE TABLE_SCHEMA='$example_schemaInfo' \<br />AND TABLE_NAME='$example_table' \<br />AND DATA_TYPE IN ('varchar','nvarchar');";</pre>PostgreSQL:<pre>my $sql_qry = "SELECT c1.column_name, c1.ordinal_position \<br />FROM information_schema.key_column_usage AS c LEFT \<br />JOIN information_schema.table_constraints AS t1 \<br />ON t1.constraint_name = c1.constraint_name \<br />WHERE t1.table_name = $example_schemaInfo'.'$example_table’ \<br />AND t1.constraint_type = 'PRIMARY KEY' ;";</pre> | App-Developer | 

### Nehmen Sie zusätzliche Änderungen an Ihrer Perl- oder Python-basierten Anwendung vor, um PostgreSQL zu unterstützen
<a name="make-additional-changes-to-your-perl-based-or-python-based-application-to-support-postgresql"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Konvertiert zusätzliche SQL Server-Konstrukte nach PostgreSQL. | Die folgenden Änderungen gelten für alle Anwendungen, unabhängig von der Programmiersprache.[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/patterns/change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition.html) | App-Developer | 

### Verbessern Sie die Leistung
<a name="improve-performance"></a>


| Aufgabe | Description | Erforderliche Fähigkeiten | 
| --- | --- | --- | 
| Nutzen Sie die AWS-Services, um die Leistung zu verbessern. | Wenn Sie zur AWS-Cloud migrieren, können Sie Ihr Anwendungs- und Datenbankdesign verfeinern, um die Vorteile der AWS-Services zu nutzen. Wenn beispielsweise die Abfragen Ihrer Python-Anwendung, die mit einem Aurora PostgreSQL-kompatiblen Datenbankserver verbunden ist, mehr Zeit in Anspruch nehmen als Ihre ursprünglichen Microsoft SQL Server-Abfragen, könnten Sie erwägen, einen Feed mit historischen Daten direkt vom Aurora-Server in einen Amazon Simple Storage Service (Amazon S3) -Bucket zu erstellen und Amazon Athena-basierte SQL-Abfragen zu verwenden, um Berichte und analytische Datenabfragen für Ihre Benutzer-Dashboards zu generieren. | App-Entwickler, Cloud-Architekt | 

## Zugehörige Ressourcen
<a name="change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition-resources"></a>
+ [Perl](https://www.perl.org/)
+ [Perl DBI-Modul](https://metacpan.org/pod/DBI)
+ [Python](https://www.python.org/)
+ [psycopg2](https://pypi.org/project/psycopg2/)
+ [SQLAlchemy](https://www.sqlalchemy.org/)
+ [Massenkopie - PostgreSQL](https://www.postgresql.org/docs/9.2/sql-copy.html)
+ [Massenkopie — Microsoft SQL Server](https://docs.microsoft.com/en-us/sql/tools/bcp-utility?view=sql-server-ver15)
+ [PostgreSQL](https://www.postgresql.org/)
+ [Arbeiten mit Amazon Aurora PostgreSQL](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html)

## Zusätzliche Informationen
<a name="change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition-additional"></a>

Sowohl Microsoft SQL Server als auch Aurora PostgreSQL-kompatibel sind ANSI SQL-kompatibel. Sie sollten sich jedoch dennoch aller Inkompatibilitäten in Bezug auf Syntax, Spaltendatentypen, systemeigene datenbankspezifische Funktionen, Masseneinfügungen und Berücksichtigung der Groß- und Kleinschreibung bewusst sein, wenn Sie Ihre Python- oder Perl-Anwendung von SQL Server zu PostgreSQL migrieren.

In den folgenden Abschnitten finden Sie weitere Informationen zu möglichen Inkonsistenzen.

**Vergleich der Datentypen**

Datentypänderungen von SQL Server zu PostgreSQL können zu erheblichen Unterschieden in den resultierenden Daten führen, mit denen Anwendungen arbeiten. Einen Vergleich der Datentypen finden Sie in der Tabelle auf der [Sqlines-Website](https://www.sqlines.com/sql-server-to-postgresql).

**Systemeigene oder integrierte SQL-Funktionen**

Das Verhalten einiger Funktionen unterscheidet sich zwischen SQL Server- und PostgreSQL-Datenbanken. Die folgende Tabelle bietet einen Vergleich.


| 
| 
| Microsoft SQL Server | Description | PostgreSQL | 
| --- |--- |--- |
| `CAST`  | Konvertiert einen Wert von einem Datentyp in einen anderen. | PostgreSQL `type :: operator` | 
| `GETDATE()` | Gibt das Datum und die Uhrzeit des aktuellen Datenbanksystems in einem `YYYY-MM-DD hh:mm:ss.mmm` Format zurück. | `CLOCK_TIMESTAMP` | 
| `DATEADD` | Fügt einem Datum ein time/date Intervall hinzu. | `INTERVAL`Ausdruck | 
| `CONVERT` | Konvertiert einen Wert in ein bestimmtes Datenformat. | `TO_CHAR` | 
| `DATEDIFF` | Gibt die Differenz zwischen zwei Daten zurück. | `DATE_PART` | 
| `TOP` | Beschränkt die Anzahl der Zeilen in einem `SELECT` Ergebnissatz. | `LIMIT/FETCH` | 

**Anonyme Blöcke**

Eine strukturierte SQL-Abfrage ist in Abschnitte wie Deklaration, ausführbare Dateien und Ausnahmebehandlung unterteilt. In der folgenden Tabelle werden die Microsoft SQL Server- und PostgreSQL-Versionen eines einfachen anonymen Blocks verglichen. Für komplexe anonyme Blöcke empfehlen wir, dass Sie eine benutzerdefinierte Datenbankfunktion in Ihrer Anwendung aufrufen.


| 
| 
| Microsoft SQL Server | PostgreSQL | 
| --- |--- |
| <pre>my $sql_qry1=<br />my $sql_qry2 =<br />my $sqlqry = "BEGIN TRAN<br />$sql_qry1 $sql_qry2<br />if @\@error !=0 ROLLBACK<br />TRAN<br />else COMIT TRAN";</pre> | <pre>my $sql_qry1=<br />my $sql_qry2 =<br />my $sql_qry = " DO \$\$<br />BEGIN<br />$header_sql $content_sql<br />END<br />\$\$";</pre> | 

 

**Andere Unterschiede**
+ **Masseneinfügungen von Zeilen:** [Das PostgreSQL-Äquivalent des [Microsoft SQL Server-Dienstprogramms BCP](https://docs.microsoft.com/en-us/sql/tools/bcp-utility?view=sql-server-ver15) ist COPY.](https://www.postgresql.org/docs/9.2/sql-copy.html)
+ Berücksichtigung von Groß- und **Kleinschreibung:** Bei Spaltennamen wird in PostgreSQL zwischen Groß- und Kleinschreibung unterschieden, sodass Sie Ihre SQL Server-Spaltennamen in Klein- oder Großbuchstaben konvertieren müssen. Dies wird zu einem Faktor, wenn Sie Daten extrahieren oder vergleichen oder Spaltennamen in Ergebnismengen oder Variablen platzieren. Das folgende Beispiel identifiziert Spalten, in denen Werte in Groß- oder Kleinbuchstaben gespeichert werden könnten.

```
my $sql_qry = "SELECT $record_id FROM $exampleTable WHERE LOWER($record_name) = \'failed transaction\'"; 
```
+ **Verkettung:** SQL Server verwendet `+` als Operator für die Verkettung von Zeichenketten, während PostgreSQL dies verwendet. `||`
+ **Validierung:** Sie sollten Inline-SQL-Abfragen und -Funktionen testen und validieren, bevor Sie sie im Anwendungscode für PostgreSQL verwenden.
+ **Inklusion der ORM-Bibliothek:** Sie können auch danach suchen, eine bestehende Datenbankverbindungsbibliothek durch Python-ORM-Bibliotheken wie [SQLAlchemy](https://www.sqlalchemy.org/)PynomoDB einzubeziehen oder zu ersetzen[.](https://pynamodb.readthedocs.io/en/latest/quickstart.html) Dies wird dazu beitragen, Daten aus einer Datenbank mithilfe eines objektorientierten Paradigmas einfach abzufragen und zu bearbeiten.

# Migrationsmuster nach Arbeitslast
<a name="migration-migration-patterns-by-workload-pattern-list"></a>

**Topics**
+ [IBM](migration-migration-patterns-by-workload-ibm-pattern-list.md)
+ [Microsoft](migration-migration-patterns-by-workload-microsoft-pattern-list.md)
+ [N/A](migration-migration-patterns-by-workload-notapplicable-pattern-list.md)
+ [Open-Source](migration-migration-patterns-by-workload-open-source-pattern-list.md)
+ [Oracle](migration-migration-patterns-by-workload-oracle-pattern-list.md)
+ [SAP](migration-migration-patterns-by-workload-sap-pattern-list.md)

# IBM
<a name="migration-migration-patterns-by-workload-ibm-pattern-list"></a>

**Topics**
+ [Migrieren Sie mithilfe von AWS DMS eine Db2-Datenbank von Amazon EC2 zu Aurora MySQL-kompatibel](migrate-a-db2-database-from-amazon-ec2-to-aurora-mysql-compatible-by-using-aws-dms.md)
+ [Migrieren Sie Db2 for LUW zu Amazon, EC2 indem Sie den Protokollversand verwenden, um die Ausfallzeit zu reduzieren](migrate-db2-for-luw-to-amazon-ec2-by-using-log-shipping-to-reduce-outage-time.md)
+ [Migrieren Sie Db2 for LUW zu Amazon EC2 mit hochverfügbarer Disaster Recovery](migrate-db2-for-luw-to-amazon-ec2-with-high-availability-disaster-recovery.md)
+ [Migrieren Sie mithilfe von AWS DMS und AWS SCT von IBM Db2 auf Amazon EC2 zu Aurora PostgreSQL-kompatibel](migrate-from-ibm-db2-on-amazon-ec2-to-aurora-postgresql-compatible-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie von IBM WebSphere Application Server zu Apache Tomcat auf Amazon EC2](migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2.md)

# Microsoft
<a name="migration-migration-patterns-by-workload-microsoft-pattern-list"></a>

**Topics**
+ [Beschleunigen Sie die Erkennung und Migration von Microsoft-Workloads zu AWS](accelerate-the-discovery-and-migration-of-microsoft-workloads-to-aws.md)
+ [Ändern Sie Python- und Perl-Anwendungen, um die Datenbankmigration von Microsoft SQL Server zur Amazon Aurora PostgreSQL-Compatible Edition zu unterstützen](change-python-and-perl-applications-to-support-database-migration-from-microsoft-sql-server-to-amazon-aurora-postgresql-compatible-edition.md)
+ [Erstellen Sie CloudFormation AWS-Vorlagen für AWS DMS-Aufgaben mit Microsoft Excel und Python](create-aws-cloudformation-templates-for-aws-dms-tasks-using-microsoft-excel-and-python.md)
+ [Exportieren Sie eine Microsoft SQL Server-Datenbank mithilfe von AWS DMS nach Amazon S3](export-a-microsoft-sql-server-database-to-amazon-s3-by-using-aws-dms.md)
+ [Implementieren Sie SHA1 Hashing für PII-Daten bei der Migration von SQL Server zu PostgreSQL](implement-sha1-hashing-for-pii-data-when-migrating-from-sql-server-to-postgresql.md)
+ [EC2 Windows-Instances in ein AWS Managed Services Services-Konto aufnehmen und migrieren](ingest-and-migrate-ec2-windows-instances-into-an-aws-managed-services-account.md)
+ [Migrieren Sie eine Messaging-Warteschlange von Microsoft Azure Service Bus zu Amazon SQS](migrate-a-messaging-queue-from-microsoft-azure-service-bus-to-amazon-sqs.md)
+ [Migrieren Sie mithilfe von AWS DMS eine Microsoft SQL Server-Datenbank von Amazon EC2 zu Amazon DocumentDB](migrate-a-microsoft-sql-server-database-from-amazon-ec2-to-amazon-documentdb-by-using-aws-dms.md)
+ [Migrieren Sie eine Microsoft SQL Server-Datenbank mithilfe von AWS DMS und AWS SCT zu Aurora MySQL](migrate-a-microsoft-sql-server-database-to-aurora-mysql-by-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie eine.NET-Anwendung von Microsoft Azure App Service zu AWS Elastic Beanstalk](migrate-a-net-application-from-microsoft-azure-app-service-to-aws-elastic-beanstalk.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank zu Amazon EC2](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-ec2.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank zu Amazon RDS for SQL Server](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mithilfe von Verbindungsservern zu Amazon RDS for SQL Server](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-linked-servers.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mit systemeigenen Sicherungs- und Wiederherstellungsmethoden zu Amazon RDS for SQL Server](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-rds-for-sql-server-using-native-backup-and-restore-methods.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mit AWS DMS zu Amazon Redshift](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-dms.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank mithilfe von AWS SCT-Datenextraktionsagenten zu Amazon Redshift](migrate-an-on-premises-microsoft-sql-server-database-to-amazon-redshift-using-aws-sct-data-extraction-agents.md)
+ [Migrieren Sie eine lokale Microsoft SQL Server-Datenbank zu Microsoft SQL Server auf Amazon EC2 unter Linux](migrate-an-on-premises-microsoft-sql-server-database-to-microsoft-sql-server-on-amazon-ec2-running-linux.md)
+ [Migrieren Sie Daten mithilfe von Rclone von Microsoft Azure Blob zu Amazon S3](migrate-data-from-microsoft-azure-blob-to-amazon-s3-by-using-rclone.md)
+ [Migrieren Sie IIS-gehostete Anwendungen mithilfe EC2 von appcmd.exe zu Amazon](migrate-iis-hosted-applications-to-amazon-ec2-by-using-appcmd.md)
+ [Migrieren Sie EC2 mithilfe des Application Migration Service eine lokale Microsoft SQL Server-Datenbank zu Amazon](migrate-microsoft-sql-server-to-amazon-ec2-using-aws-mgn.md)
+ [Migrieren Sie Windows-SSL-Zertifikate mithilfe von ACM zu einem Application Load Balancer](migrate-windows-ssl-certificates-to-an-application-load-balancer-using-acm.md)
+ [Rehosten Sie lokale Workloads in der AWS-Cloud: Migrationscheckliste](rehost-on-premises-workloads-in-the-aws-cloud-migration-checklist.md)
+ [Verbindungsfehler nach der Migration von Microsoft SQL Server zur AWS-Cloud beheben](resolve-connection-errors-after-migrating-microsoft-sql-server-to-the-aws-cloud.md)
+ [Richten Sie mithilfe von Amazon eine Multi-AZ-Infrastruktur für einen SQL Server Always On FCI ein FSx](set-up-multi-az-infrastructure-for-a-sql-server-always-on-fci-by-using-amazon-fsx.md)

# N/A
<a name="migration-migration-patterns-by-workload-notapplicable-pattern-list"></a>

**Topics**
+ [Erstellen Sie einen Genehmigungsprozess für Firewallanfragen während einer Rehost-Migration zu AWS](create-an-approval-process-for-firewall-requests-during-a-rehost-migration-to-aws.md)

# Open-Source
<a name="migration-migration-patterns-by-workload-open-source-pattern-list"></a>

**Topics**
+ [Anwendungsbenutzer und Rollen in Aurora PostgreSQL-kompatibel erstellen](create-application-users-and-roles-in-aurora-postgresql-compatible.md)
+ [Migrieren Sie Amazon RDS for Oracle zu Amazon RDS for PostgreSQL mit AWS SCT und unter Verwendung von und AWS DMS AWS CLI CloudFormation](migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-with-aws-sct-and-aws-dms-using-aws-cli-and-aws-cloudformation.md)
+ [Migrieren Sie eine lokale MariaDB-Datenbank mit nativen Tools zu Amazon RDS for MariaDB](migrate-an-on-premises-mariadb-database-to-amazon-rds-for-mariadb-using-native-tools.md)
+ [Migrieren Sie eine lokale MySQL-Datenbank zu Amazon RDS for MySQL](migrate-an-on-premises-mysql-database-to-amazon-rds-for-mysql.md)
+ [Migrieren Sie eine lokale MySQL-Datenbank zu Aurora MySQL](migrate-an-on-premises-mysql-database-to-aurora-mysql.md)
+ [Migrieren Sie eine lokale PostgreSQL-Datenbank zu Aurora PostgreSQL](migrate-an-on-premises-postgresql-database-to-aurora-postgresql.md)
+ [Migrieren Sie eine Couchbase Server-Datenbank zu Amazon EC2](migrate-couchbase-server-ec2.md)
+ [Migrieren Sie EC2 mit Auto Scaling von IBM WebSphere Application Server zu Apache Tomcat auf Amazon](migrate-from-ibm-websphere-application-server-to-apache-tomcat-on-amazon-ec2-with-auto-scaling.md)
+ [Migrieren Sie mit pglogical von PostgreSQL auf Amazon EC2 zu Amazon RDS for PostgreSQL](migrate-from-postgresql-on-amazon-ec2-to-amazon-rds-for-postgresql-using-pglogical.md)
+ [Migrieren Sie lokale Java-Anwendungen mithilfe von AWS App2Container zu AWS](migrate-on-premises-java-applications-to-aws-using-aws-app2container.md)
+ [Migrieren Sie lokale MySQL-Datenbanken mit Percona XtraBackup, Amazon EFS und Amazon S3 zu Aurora MySQL](migrate-on-premises-mysql-databases-to-aurora-mysql-using-percona-xtrabackup-amazon-efs-and-amazon-s3.md)
+ [Migrieren Sie externe Oracle-Tabellen zu Amazon Aurora PostgreSQL-kompatibel](migrate-oracle-external-tables-to-amazon-aurora-postgresql-compatible.md)
+ [Starten Sie den AWS Replication Agent SELinux nach dem Neustart eines RHEL-Quellservers automatisch neu, ohne ihn zu deaktivieren](restart-the-aws-replication-agent-automatically-without-disabling-selinux-after-rebooting-a-rhel-source-server.md)
+ [Transportieren Sie PostgreSQL-Datenbanken zwischen zwei Amazon RDS-DB-Instances mithilfe von pg\$1transport](transport-postgresql-databases-between-two-amazon-rds-db-instances-using-pg-transport.md)

# Oracle
<a name="migration-migration-patterns-by-workload-oracle-pattern-list"></a>

**Topics**
+ [Konvertiert VARCHAR2 (1) den Datentyp für Oracle in den booleschen Datentyp für Amazon Aurora PostgreSQL](convert-varchar2-1-data-type-for-oracle-to-boolean-data-type-for-amazon-aurora-postgresql.md)
+ [Emulieren Sie Oracle DR mithilfe einer PostgreSQL-kompatiblen globalen Aurora-Datenbank](emulate-oracle-dr-by-using-a-postgresql-compatible-aurora-global-database.md)
+ [Schrittweise Migration von Amazon RDS for Oracle zu Amazon RDS for PostgreSQL mithilfe von Oracle SQL Developer und AWS SCT](incrementally-migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-using-oracle-sql-developer-and-aws-sct.md)
+ [Laden Sie BLOB-Dateien mithilfe der Dateikodierung in Aurora PostgreSQL-kompatibel in TEXT](load-blob-files-into-text-by-using-file-encoding-in-aurora-postgresql-compatible.md)
+ [Migrieren Sie Amazon RDS for Oracle zu Amazon RDS for PostgreSQL im SSL-Modus mithilfe von AWS DMS](migrate-amazon-rds-for-oracle-to-amazon-rds-for-postgresql-in-ssl-mode-by-using-aws-dms.md)
+ [Migrieren Sie eine Amazon RDS for Oracle Oracle-Datenbank zu einer anderen AWS-Konto und AWS-Region verwenden Sie sie AWS DMS für die laufende Replikation](migrate-an-amazon-rds-for-oracle-database-to-another-aws-account-and-aws-region-using-aws-dms-for-ongoing-replication.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank mithilfe EC2 von Oracle Data Pump zu Amazon](migrate-an-on-premises-oracle-database-to-amazon-ec2-by-using-oracle-data-pump.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank mit Logstash zu Amazon OpenSearch Service](migrate-an-on-premises-oracle-database-to-amazon-opensearch-service-using-logstash.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank mit AWS DMS und AWS SCT zu Amazon RDS for MySQL](migrate-an-on-premises-oracle-database-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank zu Amazon RDS for Oracle](migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank mit Oracle Data Pump zu Amazon RDS for Oracle](migrate-an-on-premises-oracle-database-to-amazon-rds-for-oracle-using-oracle-data-pump.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank mithilfe eines Oracle-Bystanders und AWS DMS zu Amazon RDS for PostgreSQL](migrate-an-on-premises-oracle-database-to-amazon-rds-for-postgresql-by-using-an-oracle-bystander-and-aws-dms.md)
+ [Migrieren Sie eine lokale Oracle-Datenbank zu Oracle auf Amazon EC2](migrate-an-on-premises-oracle-database-to-oracle-on-amazon-ec2.md)
+ [Migrieren Sie mithilfe von AWS DMS und AWS SCT eine Oracle-Datenbank von Amazon EC2 zu Amazon RDS for MariaDB](migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-mariadb-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie mithilfe von AWS DMS eine Oracle-Datenbank von Amazon EC2 zu Amazon RDS for Oracle](migrate-an-oracle-database-from-amazon-ec2-to-amazon-rds-for-oracle-using-aws-dms.md)
+ [Migrieren Sie eine Oracle-Datenbank mithilfe von GoldenGate Oracle-Flatfile-Adaptern zu Amazon RDS for Oracle](migrate-an-oracle-database-to-amazon-rds-for-oracle-by-using-oracle-goldengate-flat-file-adapters.md)
+ [Migrieren Sie eine Oracle-Datenbank mit AWS DMS und AWS SCT zu Amazon Redshift](migrate-an-oracle-database-to-amazon-redshift-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie eine Oracle-Datenbank mit AWS DMS und AWS SCT zu Aurora PostgreSQL](migrate-an-oracle-database-to-aurora-postgresql-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie eine Oracle JD EnterpriseOne Edwards-Datenbank mithilfe von Oracle Data Pump und AWS DMS zu AWS](migrate-an-oracle-jd-edwards-enterpriseone-database-to-aws-by-using-oracle-data-pump-and-aws-dms.md)
+ [Migrieren Sie eine partitionierte Oracle-Tabelle mithilfe von AWS DMS zu PostgreSQL](migrate-an-oracle-partitioned-table-to-postgresql-by-using-aws-dms.md)
+ [Migrieren Sie eine PeopleSoft Oracle-Datenbank mithilfe von AWS DMS zu AWS](migrate-an-oracle-peoplesoft-database-to-aws-by-using-aws-dms.md)
+ [Migrieren Sie Daten von einer lokalen Oracle-Datenbank zu Aurora PostgreSQL](migrate-data-from-an-on-premises-oracle-database-to-aurora-postgresql.md)
+ [Migrieren Sie von Amazon RDS for Oracle zu Amazon RDS for MySQL](migrate-from-amazon-rds-for-oracle-to-amazon-rds-for-mysql.md)
+ [Migrieren Sie mithilfe von Materialized Views und AWS DMS von Oracle 8i oder 9i zu Amazon RDS for PostgreSQL](migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-materialized-views-and-aws-dms.md)
+ [Migrieren Sie mithilfe von AWS DMS von Oracle 8i oder 9i zu Amazon RDS for PostgreSQL SharePlex](migrate-from-oracle-8i-or-9i-to-amazon-rds-for-postgresql-using-shareplex-and-aws-dms.md)
+ [Migrieren Sie mithilfe von Oracle von Oracle Database zu Amazon RDS for PostgreSQL GoldenGate](migrate-from-oracle-database-to-amazon-rds-for-postgresql-by-using-oracle-goldengate.md)
+ [Migrieren Sie mithilfe von AWS DMS und AWS SCT von Oracle auf Amazon EC2 zu Amazon RDS for MySQL](migrate-from-oracle-on-amazon-ec2-to-amazon-rds-for-mysql-using-aws-dms-and-aws-sct.md)
+ [Migrieren Sie von Oracle WebLogic zu Apache Tomcat (ToMEE) auf Amazon ECS](migrate-from-oracle-weblogic-to-apache-tomcat-tomee-on-amazon-ecs.md)
+ [Migrieren Sie funktionsbasierte Indizes von Oracle nach PostgreSQL](migrate-function-based-indexes-from-oracle-to-postgresql.md)
+ [Migrieren Sie Legacy-Anwendungen von Oracle Pro\$1C zu ECPG](migrate-legacy-applications-from-oracle-pro-c-to-ecpg.md)
+ [Migrieren Sie Oracle CLOB-Werte in einzelne Zeilen in PostgreSQL auf AWS](migrate-oracle-clob-values-to-individual-rows-in-postgresql-on-aws.md)
+ [Migrieren Sie Oracle-Datenbank-Fehlercodes in eine Amazon Aurora PostgreSQL-kompatible Datenbank](migrate-oracle-database-error-codes-to-an-amazon-aurora-postgresql-compatible-database.md)
+ [Migrieren Sie native Oracle-Funktionen mithilfe von Erweiterungen zu PostgreSQL](migrate-oracle-native-functions-to-postgresql-using-extensions.md)
+ [Migrieren Sie Oracle PeopleSoft zu Amazon RDS Custom](migrate-oracle-peoplesoft-to-amazon-rds-custom.md)
+ [Migrieren Sie die Oracle ROWID-Funktionalität zu PostgreSQL auf AWS](migrate-oracle-rowid-functionality-to-postgresql-on-aws.md)
+ [Migrieren Sie Oracle SERIALLY\$1REUSABLE Pragma-Pakete nach PostgreSQL](migrate-oracle-serially-reusable-pragma-packages-into-postgresql.md)
+ [Migrieren Sie virtuell generierte Spalten von Oracle nach PostgreSQL](migrate-virtual-generated-columns-from-oracle-to-postgresql.md)
+ [Richten Sie die Oracle UTL\$1FILE-Funktionalität auf Aurora PostgreSQL-Compatible ein](set-up-oracle-utl_file-functionality-on-aurora-postgresql-compatible.md)
+ [Datenbankobjekte nach der Migration von Oracle zu Amazon Aurora PostgreSQL validieren](validate-database-objects-after-migrating-from-oracle-to-amazon-aurora-postgresql.md)

# SAP
<a name="migration-migration-patterns-by-workload-sap-pattern-list"></a>

**Topics**
+ [Migrieren Sie mithilfe von AWS DMS von SAP ASE zu Amazon RDS for SQL Server](migrate-from-sap-ase-to-amazon-rds-for-sql-server-using-aws-dms.md)
+ [Migrieren Sie SAP ASE auf Amazon EC2 zu Amazon Aurora PostgreSQL-kompatibel mit AWS SCT und AWS DMS](migrate-sap-ase-on-amazon-ec2-to-amazon-aurora-postgresql-compatible-using-aws-sct-and-aws-dms.md)

# Mehr Muster
<a name="migration-more-patterns-pattern-list"></a>

**Topics**
+ [Zugriff AWS-Services von IBM z/OS durch Installation des AWS CLI](access-aws-services-from-ibm-z-os-by-installing-aws-cli.md)
+ [Beurteilen Sie die Abfrageleistung für die Migration von SQL Server-Datenbanken zu MongoDB Atlas auf AWS](assess-query-performance-for-migrating-sql-server-databases-to-mongodb-atlas-on-aws.md)
+ [Automatisieren Sie regionsübergreifendes Failover und Failback mithilfe des DR Orchestrator Framework](automate-cross-region-failover-and-failback-by-using-dr-orchestrator-framework.md)
+ [Automatisieren Sie Datenbankaufgaben in SQL Server Express auf Amazon EC2 mithilfe eines AWS Lambda Taskplaners](automate-database-tasks-in-sql-server-express-edition-running-on-amazon-ec2.md)
+ [Erstellen Sie einen fortschrittlichen Mainframe-Dateiviewer in der AWS-Cloud](build-an-advanced-mainframe-file-viewer-in-the-aws-cloud.md)
+ [Stellen Sie über ein privates Netzwerk eine Connect zu Daten- und Steuerungsebenen des Application Migration Service her](connect-to-application-migration-service-data-and-control-planes-over-a-private-network.md)
+ [Containerisieren Sie Mainframe-Workloads, die von Blu Age modernisiert wurden](containerize-mainframe-workloads-that-have-been-modernized-by-blu-age.md)
+ [JSON-Oracle-Abfragen in PostgreSQL-Datenbank-SQL konvertieren](convert-json-oracle-queries-into-postgresql-database-sql.md)
+ [Konvertieren Sie die temporale Funktion Teradata NORMALIZE in Amazon Redshift SQL](convert-the-teradata-normalize-temporal-feature-to-amazon-redshift-sql.md)
+ [Konvertieren Sie die Teradata RESET WHEN-Funktion in Amazon Redshift SQL](convert-the-teradata-reset-when-feature-to-amazon-redshift-sql.md)
+ [Kopieren Sie Amazon DynamoDB-Tabellen zwischen Konten mit AWS Backup](copy-amazon-dynamodb-tables-across-accounts-using-aws-backup.md)
+ [Stellen Sie einen Cassandra-Cluster auf Amazon EC2 mit Private Static bereit, um ein IPs Rebalancing zu vermeiden](deploy-a-cassandra-cluster-on-amazon-ec2-with-private-static-ips-to-avoid-rebalancing.md)
+ [Stellen Sie Multi-Stack-Anwendungen mithilfe von AWS CDK bereit mit TypeScript](deploy-multiple-stack-applications-using-aws-cdk-with-typescript.md)
+ [Stellen Sie mithilfe von Terraform SQL Server-Failover-Cluster-Instances auf Amazon EC2 und Amazon FSx bereit](deploy-sql-server-failover-cluster-instances-on-amazon-ec2-and-amazon-fsx.md)
+ [Emulieren Sie PL/SQL assoziative Oracle-Arrays in Amazon Aurora PostgreSQL und Amazon RDS for PostgreSQL](emulate-oracle-plsql-associative-arrays-in-aurora-and-rds-postgresql.md)
+ [Schätzen Sie die Größe der Amazon RDS-Engine für eine Oracle-Datenbank mithilfe von AWR-Berichten](estimate-the-amazon-rds-engine-size-for-an-oracle-database-by-using-awr-reports.md)
+ [Generieren Sie Dateneinblicke mithilfe AWS Mainframe Modernization von Amazon Q in Quick Sight](generate-data-insights-by-using-aws-mainframe-modernization-and-amazon-q-in-quicksight.md)
+ [Behandeln Sie anonyme Blöcke in dynamischen SQL-Anweisungen in Aurora PostgreSQL](handle-anonymous-blocks-in-dynamic-sql-statements-in-aurora-postgresql.md)
+ [Automatische Identifizierung doppelter Container-Images bei der Migration zu einem Amazon ECR-Repository](identify-duplicate-container-images-automatically-when-migrating-to-ecr-repository.md)
+ [Richten Sie einen Microsoft SQL Server-Failover-Cluster auf Amazon EC2 ein, indem Sie FSx für Windows File Server](microsoft-sql-failover-cluster-on-amazon-ec2.md)
+ [Migrieren Sie Apache Cassandra-Workloads mithilfe von AWS Glue zu Amazon Keyspaces](migrate-apache-cassandra-workloads-to-amazon-keyspaces-by-using-aws-glue.md)
+ [Migrieren Sie Ihre Container-Workloads von Azure Red Hat OpenShift (ARO) zu Red Hat OpenShift Service in AWS (ROSA)](migrate-container-workloads-from-aro-to-rosa.md)
+ [Migrieren Sie mithilfe von AWS DMS von Oracle 8i oder 9i zu Amazon RDS for Oracle SharePlex](migrate-from-oracle-8i-or-9i-to-amazon-rds-for-oracle-using-shareplex-and-aws-dms.md)
+ [Migrieren Sie die Microsoft SQL Server Always On-Verfügbarkeitsgruppe mithilfe von AWS Application Migration Service](migrate-microsoft-sql-server-always-on-group-using-mgn.md)
+ [Migrieren Sie Oracle-Funktionen und -Prozeduren mit mehr als 100 Argumenten nach PostgreSQL](migrate-oracle-functions-and-procedures-that-have-more-than-100-arguments-to-postgresql.md)
+ [Migrieren Sie SAP HANA zu AWS mithilfe von SAP HSR mit demselben Hostnamen](migrate-sap-hana-to-aws-using-sap-hsr-with-the-same-hostname.md)
+ [Migrieren Sie SQL Server mithilfe verteilter Verfügbarkeitsgruppen zu AWS](migrate-sql-server-to-aws-using-distributed-availability-groups.md)
+ [Modernisieren und implementieren Sie Mainframe-Anwendungen mithilfe von Terraform AWS Transform](modernize-mainframe-app-transform-terraform.md)
+ [Modernisieren Sie Mainframe-Online-Druck-Workloads auf AWS mithilfe von Micro Focus Enterprise Server und LRS VPSX/MFI](modernize-mainframe-online-printing-workloads-on-aws-by-using-micro-focus-enterprise-server-and-lrs-vpsx-mfi.md)
+ [Modernisieren Sie das Mainframe-Output-Management mithilfe AWS von Rocket Enterprise Server und LRS X PageCenter](modernize-mainframe-output-management-on-aws-by-using-rocket-enterprise-server-and-lrs-pagecenterx.md)
+ [Ändern Sie HTTP-Header, wenn Sie von F5 zu einem Application Load Balancer auf AWS migrieren](modify-http-headers-when-you-migrate-from-f5-to-an-application-load-balancer-on-aws.md)
+ [Multi-AZ-Failover für EMR-Cluster mithilfe von Application Recovery Controller verwalten](multi-az-failover-spark-emr-clusters-arc.md)
+ [Analysieren Sie Objektabhängigkeiten für partielle Datenbankmigrationen von Oracle nach PostgreSQL](multilevel-object-analysis-for-database-migration-from-oracle-to-postgresql.md)
+ [Richten Sie mithilfe von Terraform eine CI/CD Pipeline für die Datenbankmigration ein](set-up-ci-cd-pipeline-for-db-migration-with-terraform.md)
+ [Richten Sie die Notfallwiederherstellung für Oracle JD Edwards EnterpriseOne mit AWS Elastic Disaster Recovery ein](set-up-disaster-recovery-for-oracle-jd-edwards-enterpriseone-with-aws-elastic-disaster-recovery.md)
+ [Vereinfachen Sie die Verwaltung privater Zertifikate mithilfe von AWS Private CA und AWS RAM](simplify-private-certificate-management-by-using-aws-private-ca-and-aws-ram.md)
+ [Übertragung umfangreicher z/OS Db2-Daten in CSV-Dateien nach Amazon S3](transfer-large-scale-db2-z-os-data-to-amazon-s3-in-csv-files.md)
+ [Verwandeln Sie Easytrieve mithilfe von Custom in moderne Sprachen AWS Transform](transform-easytrieve-modern-languages.md)