

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Exportieren von DB-Cluster-Daten nach Amazon S3
<a name="export-cluster-data"></a>

Sie können Daten aus einem Live-DB-Cluster von Amazon Aurora in einen Amazon-S3-Bucket exportieren. Der Exportprozess läuft im Hintergrund und beeinträchtigt nicht die Leistung Ihres aktiven DB-Clusters.

Standardmäßig werden alle Daten im DB-Cluster exportiert. Sie können sich jedoch dafür entscheiden, bestimmte Sätze von Datenbanken, Schemata oder Tabellen zu exportieren.

Amazon Aurora klont den DB-Cluster, extrahiert Daten aus dem Klon und speichert die Daten in einem Amazon-S3-Bucket. Die Daten werden in einem Apache Parquet-Format gespeichert, das komprimiert und konsistent ist. Einzelne Parquet-Dateien haben in der Regel eine Größe zwischen 1 und 10 MB.

Die schnellere Leistung, die Sie mit dem Export von Snapshot-Daten für Aurora MySQL Version 2 und Version 3 erzielen können, gilt nicht für den Export von DB-Cluster-Daten. Weitere Informationen finden Sie unter [Exportieren von Daten von DB-Cluster-Snapshots nach Amazon S3](aurora-export-snapshot.md).

Der Export des gesamten DB-Clusters wird Ihnen in Rechnung gestellt, unabhängig davon, ob Sie alle oder nur einen Teil der Daten exportieren. Weitere Informationen finden Sie auf der Seite [Amazon-Aurora-Preise](https://aws.amazon.com/rds/aurora/pricing/).

Nachdem die Daten exportiert wurden, können Sie die exportierten Daten direkt mit Tools wie Amazon Athena oder Amazon Redshift Spectrum analysieren. Weitere Informationen zur Verwendung Athena zum Lesen von Parquet-Daten finden Sie unter [Parquet SerDe](https://docs.aws.amazon.com/athena/latest/ug/parquet-serde.html) im *Amazon Athena-Benutzerhandbuch*. Weitere Informationen zur Verwendung von Redshift Spectrum zum Lesen von Parquet-Daten finden Sie unter [COPY from columnar data formats](https://docs.aws.amazon.com/redshift/latest/dg/copy-usage_notes-copy-from-columnar.html) im *Amazon Redshift Database Developer Guide*.

Die Verfügbarkeit von Funktionen und der Support variieren zwischen bestimmten Versionen der einzelnen Datenbank-Engines und in allen AWS-Regionen. Weitere Informationen zur Versions- und Regionsverfügbarkeit beim Exportieren von DB-Cluster-Daten nach S3 finden Sie unter [Unterstützte Regionen und Aurora-DB-Engines zum Exportieren von Cluster-Daten nach Amazon S3](Concepts.Aurora_Fea_Regions_DB-eng.Feature.ExportClusterToS3.md).

Sie verwenden den folgenden Prozess, um DB-Cluster-Daten in einen Amazon-S3-Bucket zu exportieren. Weitere Informationen finden Sie in den folgenden Abschnitten.

**Übersicht über das Exportieren von DB-Cluster-Daten**

1. Identifizieren Sie den DB-Cluster, dessen Daten Sie exportieren möchten.

1. Richten Sie den Zugriff auf den Amazon S3-Bucket ein.

   Ein *Bucket* ist ein Container für Amazon S3-Objekte oder -Dateien. Um die Informationen für den Zugriff auf einen Bucket bereitzustellen, führen Sie die folgenden Schritte aus:

   1. Identifizieren Sie den S3-Bucket, in den die DB-Cluster-Daten exportiert werden soll. Der S3-Bucket muss sich in derselben AWS-Region wie der Cluster befinden. Weitere Informationen finden Sie unter [Identifizieren des Amazon-S3-Buckets, in den exportiert werden soll](export-cluster-data.Setup.md#export-cluster-data.SetupBucket).

   1. Erstellen Sie eine AWS Identity and Access Management (IAM)-Rolle, die der DB-Cluster-Exportaufgabe Zugriff auf den S3-Bucket gewährt. Weitere Informationen finden Sie unter [Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle](export-cluster-data.Setup.md#export-cluster-data.SetupIAMRole).

1. Erstellen Sie einen symmetrischen Verschlüsselungs-AWS KMS key für die serverseitige Verschlüsselung. Der KMS-Schlüssel wird von der Cluster-Exportaufgabe verwendet, um serverseitige AWS KMS-Verschlüsselung beim Schreiben der Exportdaten in S3 einzurichten.

   Die KMS-Schlüsselrichtlinie muss die beiden Berechtigungen `kms:CreateGrant` und `kms:DescribeKey` enthalten. Weitere Informationen zur Verwendung von KMS-Schlüsseln in Amazon Aurora finden Sie unter [AWS KMS key Verwaltung](Overview.Encryption.Keys.md).

   Wenn Ihre KMS-Schlüsselrichtlinie eine Anweisung zur Zugriffsverweigerung enthält, müssen Sie den AWS-Service-Prinzipal `export.rds.amazonaws.com` explizit ausschließen.

   Sie können einen KMS-Schlüssel in Ihrem AWS-Konto oder Sie können einen kontoübergreifenden KMS-Schlüssel verwenden. Weitere Informationen finden Sie unter [Ein kontoübergreifendes Konto verwenden AWS KMS key](aurora-export-snapshot.Setup.md#aurora-export-snapshot.CMK).

1. Exportieren Sie den DB-Cluster mit der Konsole oder dem CLI-Befehl `start-export-task` nach Amazon S3. Weitere Informationen finden Sie unter [Erstellen von DB-Cluster-Exportaufgaben](export-cluster-data.Exporting.md). 

1. Um auf Ihre exportierten Daten im Amazon S3-Bucket zuzugreifen, siehe [Hochladen, Herunterladen und Verwalten von Objekten](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-download-objects.html) im *Amazon Simple Storage Service User Guide*.

In den folgenden Abschnitten erfahren Sie, wie Sie Exportaufgaben von DB-Clustern einrichten, exportieren und überwachen sowie Fehler bei diesen beheben.

**Topics**
+ [Überlegungen zu Exporten von DB-Clustern](export-cluster-data.Considerations.md)
+ [Einrichten des Zugriffs auf einen Amazon-S3-Bucket](export-cluster-data.Setup.md)
+ [Erstellen von DB-Cluster-Exportaufgaben](export-cluster-data.Exporting.md)
+ [Überwachen von DB-Cluster-Exportaufgaben](export-cluster-data.Monitoring.md)
+ [Abbrechen einer DB-Cluster-Exportaufgabe](export-cluster-data.Canceling.md)
+ [Fehlerbehebung bei Problemen mit DB-Cluster-Exporten](export-cluster-data.Troubleshooting.md)

# Überlegungen zu Exporten von DB-Clustern
<a name="export-cluster-data.Considerations"></a>

In den folgenden Abschnitten erfahren Sie mehr über Einschränkungen, Dateibenennungskonventionen sowie Datenkonvertierung und Speicherung beim Exportieren von DB-Cluster-Daten nach Amazon S3.

**Topics**
+ [Einschränkungen](#export-cluster-data.Limits)
+ [Benennungskonvention für Dateien](#export-cluster-data.FileNames)
+ [Datenkonvertierung und Speicherformat](#export-cluster-data.data-types)

## Einschränkungen
<a name="export-cluster-data.Limits"></a>

Das Exportieren von DB-Cluster-Daten nach Amazon S3 unterliegt folgenden Einschränkungen:
+ Sie können nicht mehrere Exportaufgaben für denselben DB-Cluster gleichzeitig ausführen. Dies gilt sowohl für vollständige als auch Teilexporte.
+ Sie können bis zu fünf gleichzeitige DB-Snapshot-Exportaufgaben pro AWS-Konto durchführen.
+ DB-Cluster von Aurora Serverless v1 unterstützen keine Exporte nach S3.
+ Aurora MySQL und Aurora PostgreSQL unterstützen Exporte nach S3 nur für den bereitgestellten Engine-Modus.
+ Exporte nach S3 unterstützen keine S3-Präfixe, die einen Doppelpunkt (:) enthalten.
+ Die folgenden Zeichen im S3-Dateipfad werden während des Exports in Unterstriche (\$1) konvertiert:

  ```
  \ ` " (space)
  ```
+ Wenn eine Datenbank, ein Schema oder eine Tabelle andere Zeichen als den folgenden enthält, wird ein teilweiser Export nicht unterstützt. Sie können jedoch den gesamten DB-Cluster exportieren.
  + Lateinische Buchstaben (A–Z)
  + Ziffern (0–9)
  + Dollar-Symbol (\$1)
  + Unterstrich (\$1)
+ Leerzeichen ( ) und bestimmte andere Zeichen werden in den Spaltennamen von Datenbanktabellen nicht unterstützt. Tabellen mit den folgenden Zeichen in Spaltennamen werden beim Export übersprungen:

  ```
  , ; { } ( ) \n \t = (space)
  ```
+ Tabellen mit Schrägstrichen (/) im Namen werden beim Export übersprungen.
+ Temporäre und nicht protokollierte Tabellen von Aurora PostgreSQL werden beim Export übersprungen.
+ Wenn die Daten ein großes Objekt wie BLOB oder CLOB mit einer Größe von 500 MB oder mehr enthalten, schlägt der Export fehl.
+ Wenn eine Zeile in einer Tabelle ca. 2 GB groß oder noch größer ist, wird die Tabelle beim Export übersprungen.
+ Bei Teilexporten beträgt die maximale Größe der `ExportOnly`-Liste 200 KB.
+ Es wird dringend empfohlen, für jede Exportaufgabe einen eindeutigen Namen zu verwenden. Wenn Sie keinen eindeutigen Aufgabennamen verwenden, erhalten Sie möglicherweise die folgende Fehlermeldung:

  ExportTaskAlreadyExistsFault: Beim Aufrufen des StartExportTask-Vorgangs ist ein Fehler aufgetreten (ExportTaskAlreadyExists): Die Exportaufgabe mit der ID *xxxxx* ist bereits vorhanden.
+ Da einige Tabellen möglicherweise übersprungen werden, empfehlen wir, nach dem Export die Anzahl der Zeilen und Tabellen in den Daten zu überprüfen.

## Benennungskonvention für Dateien
<a name="export-cluster-data.FileNames"></a>

Exportierte Daten für bestimmte Tabellen werden im Format `base_prefix/files` gespeichert, wobei das Basispräfix folgendes ist:

```
export_identifier/database_name/schema_name.table_name/
```

Zum Beispiel:

```
export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/
```

Ausgabedateien verwenden die folgende Benennungskonvention, wobei *partition\$1index* alphanumerisch ist:

```
partition_index/part-00000-random_uuid.format-based_extension
```

Zum Beispiel:

```
1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet
    a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
```

Die Namenskonvention für Dateien kann geändert werden. Daher empfehlen wir beim Lesen von Zieltabellen, dass Sie alles innerhalb des Basispräfixes für die Tabelle lesen.

## Datenkonvertierung und Speicherformat
<a name="export-cluster-data.data-types"></a>

Wenn Sie einen DB-Cluster in einen Amazon-S3-Bucket exportieren, konvertiert Amazon Aurora Daten in das Parquet-Format, exportiert Daten darin und speichert Daten in diesem Format. Weitere Informationen finden Sie unter [Datenkonvertierung beim Exportieren in einen Amazon S3-Bucket](aurora-export-snapshot.Considerations.md#aurora-export-snapshot.data-types).

# Einrichten des Zugriffs auf einen Amazon-S3-Bucket
<a name="export-cluster-data.Setup"></a>

Sie identifizieren den Amazon-S3-Bucket und gewähren der DB-Cluster-Exportaufgabe die Berechtigung, darauf zuzugreifen.

**Topics**
+ [Identifizieren des Amazon-S3-Buckets, in den exportiert werden soll](#export-cluster-data.SetupBucket)
+ [Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle](#export-cluster-data.SetupIAMRole)
+ [Einen kontoübergreifenden Amazon-S3-Bucket verwenden](#export-cluster-data.Setup.XAcctBucket)

## Identifizieren des Amazon-S3-Buckets, in den exportiert werden soll
<a name="export-cluster-data.SetupBucket"></a>

Identifizieren Sie den Amazon-S3-Bucket, in den die DB-Cluster-Daten exportiert werden sollen. Verwenden Sie einen vorhandenen S3-Bucket oder erstellen Sie einen neuen S3-Bucket.

**Anmerkung**  
Der S3-Bucket muss sich in derselben AWS Region wie der DB-Cluster befinden.

Weitere Informationen zur Arbeit mit Amazon S3-Buckets finden Sie im *Amazon Simple Storage Service User Guide*:
+ [Wie zeige ich die Eigenschaften für einen S3-Bucket an?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/view-bucket-properties.html)
+ [Wie aktiviere ich die Standardverschlüsselung für einen Amazon S3-Bucket?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/default-bucket-encryption.html)
+ [Wie erstelle ich einen S3-Bucket?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-bucket.html)

## Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle
<a name="export-cluster-data.SetupIAMRole"></a>

Bevor Sie DB-Cluster-Daten nach Amazon S3 exportieren, gewähren Sie den Exportaufgaben Schreibzugriff auf den Amazon-S3-Bucket.

Zum Gewähren dieser Berechtigung erstellen Sie eine IAM-Richtlinie, die Zugriff auf den Bucket ermöglicht. Erstellen Sie dann eine IAM-Rolle und fügen Sie der Rolle die Richtlinie an. Die IAM-Rolle können Sie später Ihrer DB-Cluster-Exportaufgabe zuweisen.

**Wichtig**  
Wenn Sie planen, den für den Export Ihres DB-Clusters AWS-Managementkonsole zu verwenden, können Sie festlegen, dass die IAM-Richtlinie und die Rolle automatisch erstellt werden, wenn Sie den DB-Cluster exportieren. Detaillierte Anweisungen finden Sie unter [Erstellen von DB-Cluster-Exportaufgaben](export-cluster-data.Exporting.md).

**So erteilen Sie Aufgaben Zugriff auf Amazon S3**

1. Erstellen Sie eine IAM-Richtlinie. Diese Richtlinie bietet dem Bucket und den Objekten Berechtigungen, die Ihrer DB-Cluster-Exportaufgabe Zugriff auf Amazon S3 erlauben.

   Die Richtlinie muss die folgenden erforderlichen Aktionen enthalten, um die Übertragung von Dateien aus Amazon Aurora in einen S3-Bucket zu erlauben:
   + `s3:PutObject*`
   + `s3:GetObject*` 
   + `s3:ListBucket` 
   + `s3:DeleteObject*`
   +  `s3:GetBucketLocation`

   Fügen Sie in die Richtlinie die folgenden Ressourcen zur Identifizierung des S3-Buckets und der Objekte im Bucket ein. Die folgende Liste von Ressourcen zeigt das ARN-Format (Amazon-Ressourcenname) für den Amazon S3-Zugriff.
   + `arn:aws:s3:::amzn-s3-demo-bucket`
   + `arn:aws:s3:::amzn-s3-demo-bucket/*`

   Weitere Informationen zur Erstellung einer IAM-Richtlinie für Amazon Aurora finden Sie unter [Erstellen und Verwenden einer IAM-Richtlinie für den IAM-Datenbankzugriff](UsingWithRDS.IAMDBAuth.IAMPolicy.md). Siehe auch [Tutorial: Erstellen und Anfügen Ihrer ersten vom Kunden verwalteten Richtlinie](https://docs.aws.amazon.com//IAM/latest/UserGuide/tutorial_managed-policies.html) im *IAM-Benutzerhandbuch*.

   Mit dem folgenden AWS CLI Befehl wird eine IAM-Richtlinie `ExportPolicy` mit diesen Optionen erstellt. Sie gewährt Zugriff auf einen Bucket namens *amzn-s3-demo-bucket*.
**Anmerkung**  
Nachdem Sie die Richtlinie erstellt haben, notieren Sie den ARN der Richtlinie. Sie benötigen den ARN für einen nachfolgenden Schritt, in dem Sie die Richtlinie an eine IAM-Rolle anhängen.

   ```
   aws iam create-policy  --policy-name ExportPolicy --policy-document '{
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "ExportPolicy",
               "Effect": "Allow",
               "Action": [
                   "s3:PutObject*",
                   "s3:ListBucket",
                   "s3:GetObject*",
                   "s3:DeleteObject*",
                   "s3:GetBucketLocation"
               ],
               "Resource": [
                   "arn:aws:s3:::amzn-s3-demo-bucket",
                   "arn:aws:s3:::amzn-s3-demo-bucket/*"
               ]
           }
       ]
   }'
   ```

1. Erstellen Sie eine IAM-Rolle, damit Aurora diese IAM-Rolle in Ihrem Namen übernehmen kann, um auf Ihre Amazon-S3-Buckets zuzugreifen. Weitere Informationen finden Sie unter [Erstellen einer Rolle zum Delegieren von Berechtigungen an einen IAM-Benutzer](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-user.html) im *IAM-Benutzerhandbuch*.

   Das folgende Beispiel zeigt, wie der AWS CLI Befehl verwendet wird, um eine Rolle mit dem Namen `rds-s3-export-role` zu erstellen.

   ```
   aws iam create-role  --role-name rds-s3-export-role  --assume-role-policy-document '{
        "Version": "2012-10-17",		 	 	 
        "Statement": [
          {
            "Effect": "Allow",
            "Principal": {
               "Service": "export.rds.amazonaws.com"
             },
            "Action": "sts:AssumeRole"
          }
        ] 
      }'
   ```

1. Fügen Sie die erstellte IAM-Richtlinie der IAM-Rolle an, die Sie erstellt haben.

   Mit dem folgenden AWS CLI Befehl wird die zuvor erstellte Richtlinie an die angegebene `rds-s3-export-role` Rolle angehängt. Ersetzen Sie `your-policy-arn` durch den Richtlinien-ARN, den Sie in einem früheren Schritt notiert haben.

   ```
   aws iam attach-role-policy  --policy-arn your-policy-arn  --role-name rds-s3-export-role
   ```

## Einen kontoübergreifenden Amazon-S3-Bucket verwenden
<a name="export-cluster-data.Setup.XAcctBucket"></a>

Sie können S3-Buckets kontenübergreifend AWS verwenden. Weitere Informationen finden Sie unter [Einen kontoübergreifenden Amazon-S3-Bucket verwenden](aurora-export-snapshot.Setup.md#aurora-export-snapshot.Setup.XAcctBucket).

# Erstellen von DB-Cluster-Exportaufgaben
<a name="export-cluster-data.Exporting"></a>

Erstellen Sie Exportaufgaben zum Exportieren von Daten aus Ihrem Aurora-DB-Cluster in einen Amazon-S3-Bucket. Sie können bis zu fünf gleichzeitige DB-Cluster-Exportaufgaben pro AWS-Konto durchführen.

**Anmerkung**  
Das Exportieren von DB-Cluster-Daten kann je nach Datenbanktyp und -größe eine Weile dauern. Die Exportaufgabe klont zuerst die gesamte Datenbank und skaliert sie, bevor die Daten in Amazon S3 extrahiert werden. Der Fortschritt des Vorgangs während dieser Phase wird als **Starting (Startet)** angezeigt. Wenn die Aufgabe zum Exportieren von Daten zu S3 wechselt, wird der Fortschritt als **In progress (In Bearbeitung)** angezeigt.  
Die Zeit, die für den Export benötigt wird, hängt von den in der Datenbank gespeicherten Daten ab. Beispielsweise exportieren Tabellen mit gut verteilten numerischen Primärschlüssel- oder Indexspalten am schnellsten. Bei Tabellen, die keine Spalte enthalten, die für die Partitionierung geeignet ist, und bei Tabellen mit nur einem Index für eine auf Zeichenfolgen basierende Spalte, dauert dies länger, da der Export einen langsameren Single-Thread-Prozess verwendet.

Sie können DB-Cluster-Daten mit Hilfe der AWS-Managementkonsole, der AWS CLI oder der RDS-API nach Amazon S3 exportieren.

Wenn Sie eine Lambda-Funktion zum Exportieren der DB-Cluster-Daten verwenden, fügen Sie die Aktion `kms:DescribeKey` der Lambda-Funktionsrichtlinie hinzu. Weitere Informationen finden Sie unter [AWS Lambda Berechtigungen](https://docs.aws.amazon.com/lambda/latest/dg/lambda-permissions.html).

## Konsole
<a name="export-cluster-data.ExportConsole"></a>

Die Konsolenoption **Export to Amazon S3** (Nach Amazon S3 exportieren) wird nur für DB-Cluster angezeigt, die nach Amazon S3 exportiert werden können. Ein DB-Cluster ist aus folgenden Gründen möglicherweise nicht für den Export verfügbar:
+ Die DB-Engine wird für den S3-Export nicht unterstützt.
+ Die DB-Cluster-Version wird für den S3-Export nicht unterstützt.
+ Der S3-Export wird in der AWS-Region, in der der DB-Cluster erstellt wurde, nicht unterstützt.

**So exportieren Sie DB-Cluster-Daten**

1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die Amazon-RDS-Konsole unter [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Wählen Sie im Navigationsbereich **Databases (Datenbanken)** aus.

1. Wählen Sie den DB-Cluster aus, dessen Daten Sie exportieren möchten.

1. Wählen Sie für **Actions (Aktionen)** die Option **Export to Amazon S3 (Nach Amazon S3 exportieren)** aus.

   Das Fenster **Export to Amazon S3 (Nach Amazon S3 exportieren)** erscheint.

1. Geben Sie für **Export identifier (Export-ID)** einen Namen ein, um die Exportaufgabe zu identifizieren. Dieser Wert wird auch für den Namen der im S3-Bucket erstellten Datei verwendet.

1. Wählen Sie die zu exportierenden Daten aus:
   + Wählen Sie **All** (Alle) aus, um alle Daten im DB-Cluster zu exportieren.
   + Wählen Sie **Partial** (Teilweise) aus, um bestimmte Teile des DB-Clusters zu exportieren. Um zu ermitteln, welche Teile des Clusters exportiert werden sollen, geben Sie eine oder mehrere Datenbanken, Schemas oder Tabellen für **Bezeichner** ein, getrennt durch Leerzeichen.

     Verwenden Sie das folgende Format:

     ```
     database[.schema][.table] database2[.schema2][.table2] ... databasen[.scheman][.tablen]
     ```

     Zum Beispiel:

     ```
     mydatabase mydatabase2.myschema1 mydatabase2.myschema2.mytable1 mydatabase2.myschema2.mytable2
     ```

1. Wählen Sie für **S3 bucket (S3-Bucket)** den Bucket aus, in den exportiert werden soll.

   Um die exportierten Daten einem Ordnerpfad im S3-Bucket zuzuordnen, geben Sie den optionalen Pfad für **S3 prefix (S3-Präfix)** ein.

1. Wählen Sie für die **IAM-Rolle** entweder eine Rolle, die Ihnen Schreibzugriff auf den gewählten S3-Bucket gewährt, oder erstellen Sie eine neue Rolle.
   + Wenn Sie eine Rolle durch Befolgen der Schritte in [Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle](export-cluster-data.Setup.md#export-cluster-data.SetupIAMRole) erstellt haben, wählen Sie diese Rolle.
   + Wenn Sie keine Rolle erstellt haben, die Ihnen Schreibzugriff auf den von Ihnen gewählten S3-Bucket gewährt, wählen Sie **Create a new role** (Neue Rolle erstellen) aus, um die Rolle automatisch zu erstellen. Geben Sie dann unter **IAM role name (IAM-Rollenname)** einen Namen für die Rolle ein.

1. Geben Sie für **KMS key** (KMS-Schlüssel) den ARN für den Schlüssel ein, der für die Verschlüsselung der exportierten Daten verwendet werden soll.

1. Wählen Sie **Export to Amazon S3 (Nach Amazon S3 exportieren)** aus.

## AWS CLI
<a name="export-cluster-data.ExportCLI"></a>

Um DB-Cluster-Daten mit der AWS CLI nach Amazon S3 zu exportieren, verwenden Sie den Befehl [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html) mit den folgenden erforderlichen Optionen:
+ `--export-task-identifier`
+ `--source-arn` – Der Amazon-Ressourcenname (ARN) des DB-Clusters.
+ `--s3-bucket-name`
+ `--iam-role-arn`
+ `--kms-key-id`

In den folgenden Beispielen heißt die Exportaufgabe *my-cluster-export*, die die Daten in einen S3-Bucket namens *amzn-s3-demo-destination-bucket* exportiert.

**Example**  
Für Linux, macOS oder Unix:  

```
1. aws rds start-export-task \
2.     --export-task-identifier my-cluster-export \
3.     --source-arn arn:aws:rds:us-west-2:123456789012:cluster:my-cluster \
4.     --s3-bucket-name amzn-s3-demo-destination-bucket \
5.     --iam-role-arn iam-role \
6.     --kms-key-id my-key
```
Für Windows:  

```
1. aws rds start-export-task ^
2.     --export-task-identifier my-DB-cluster-export ^
3.     --source-arn arn:aws:rds:us-west-2:123456789012:cluster:my-cluster ^
4.     --s3-bucket-name amzn-s3-demo-destination-bucket ^
5.     --iam-role-arn iam-role ^
6.     --kms-key-id my-key
```
Beispiel für eine Ausgabe folgt.  

```
{
    "ExportTaskIdentifier": "my-cluster-export",
    "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:my-cluster",
    "S3Bucket": "amzn-s3-demo-destination-bucket",
    "IamRoleArn": "arn:aws:iam:123456789012:role/ExportTest",
    "KmsKeyId": "my-key",
    "Status": "STARTING",
    "PercentProgress": 0,
    "TotalExtractedDataInGB": 0,
}
```
Wenn Sie einen Ordnerpfad im S3-Bucket für den DB-Cluster-Export bereitstellen möchten, nehmen Sie die Option `--s3-prefix` in den Befehl [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html) auf.

## RDS-API
<a name="export-cluster-data.ExportAPI"></a>

Wenn Sie DB-Cluster-Daten Snapshot mit der Amazon-RDS-API nach Amazon S3 exportieren möchten, verwenden Sie die Operation [StartExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_StartExportTask.html) mit den folgenden erforderlichen Parametern:
+ `ExportTaskIdentifier`
+ `SourceArn` – der ARN des DB-Clusters
+ `S3BucketName`
+ `IamRoleArn`
+ `KmsKeyId`

# Überwachen von DB-Cluster-Exportaufgaben
<a name="export-cluster-data.Monitoring"></a>

Sie können DB-Cluster-Exporte mit der AWS-Managementkonsole, der AWS CLI oder der RDS-API überwachen.

## Konsole
<a name="export-cluster-data.MonitorConsole"></a>

**So überwachen Sie DB-Cluster-Exporte**

1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die Amazon-RDS-Konsole unter [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Wählen Sie im Navigationsbereich die Option **Exports in Amazon S3** (Exporte in Amazon S3) aus.

   DB-Cluster-Exporte werden in der Spalte **Source type** (Quelltyp) angegeben. Der Exportstatus wird in der Spalte **Status** angezeigt.

1. Um ausführliche Informationen über einen bestimmten DB-Cluster-Export anzuzeigen, wählen Sie die Exportaufgabe aus.

## AWS CLI
<a name="export-cluster-data.MonitorCLI"></a>

Um DB-Cluster-Exporte mit der AWS CLI zu überwachen, verwenden Sie den Befehl [describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html).

Das folgende Beispiel zeigt, wie Sie aktuelle Informationen über alle Ihre DB-Cluster-Exporte anzeigen können.

**Example**  

```
 1. aws rds describe-export-tasks
 2. 
 3. {
 4.     "ExportTasks": [
 5.         {
 6.             "Status": "CANCELED",
 7.             "TaskEndTime": "2022-11-01T17:36:46.961Z",
 8.             "S3Prefix": "something",
 9.             "S3Bucket": "amzn-s3-demo-bucket",
10.             "PercentProgress": 0,
11.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
12.             "ExportTaskIdentifier": "anewtest",
13.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
14.             "TotalExtractedDataInGB": 0,
15.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:parameter-groups-test"
16.         },
17. {
18.             "Status": "COMPLETE",
19.             "TaskStartTime": "2022-10-31T20:58:06.998Z",
20.             "TaskEndTime": "2022-10-31T21:37:28.312Z",
21.             "WarningMessage": "{\"skippedTables\":[],\"skippedObjectives\":[],\"general\":[{\"reason\":\"FAILED_TO_EXTRACT_TABLES_LIST_FOR_DATABASE\"}]}",
22.             "S3Prefix": "",
23.             "S3Bucket": "amzn-s3-demo-bucket1",
24.             "PercentProgress": 100,
25.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
26.             "ExportTaskIdentifier": "thursday-events-test", 
27.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
28.             "TotalExtractedDataInGB": 263,
29.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:example-1-2019-10-31-06-44"
30.         },
31.         {
32.             "Status": "FAILED",
33.             "TaskEndTime": "2022-10-31T02:12:36.409Z",
34.             "FailureCause": "The S3 bucket amzn-s3-demo-bucket2 isn't located in the current AWS Region. Please, review your S3 bucket name and retry the export.",
35.             "S3Prefix": "",
36.             "S3Bucket": "amzn-s3-demo-bucket2",
37.             "PercentProgress": 0,
38.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
39.             "ExportTaskIdentifier": "wednesday-afternoon-test",
40.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
41.             "TotalExtractedDataInGB": 0,
42.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:example-1-2019-10-30-06-45"
43.         }
44.     ]
45. }
```
Wenn Sie Informationen über eine bestimmte Exportaufgabe anzeigen möchten, nehmen Sie die Option `--export-task-identifier` in den Befehl `describe-export-tasks` auf. Um die Ausgabe zu filtern, fügen Sie die Option `--Filters` ein. Weitere Optionen finden Sie beim [describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html)-Befehl.

## RDS-API
<a name="export-cluster-data.MonitorAPI"></a>

Um Informationen über DB-Cluster-Exporte mit der Amazon-RDS-API anzuzeigen, verwenden Sie die [DescribeExportTasks](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_DescribeExportTasks.html)-Operation.

Um den Abschluss des Export-Workflows zu verfolgen oder einen anderen Workflow zu initiieren, können Sie Themen von Amazon Simple Notification Service abonnieren. Weitere Informationen zu Amazon SNS finden Sie unter [Arbeiten mit Amazon-RDS-Ereignisbenachrichtigungen](USER_Events.md).

# Abbrechen einer DB-Cluster-Exportaufgabe
<a name="export-cluster-data.Canceling"></a>

Sie können eine DB-Cluster-Exportaufgabe mit Hilfe der AWS-Managementkonsole, der AWS CLI oder der RDS-API abbrechen.

**Anmerkung**  
Durch das Abbrechen einer Exportaufgabe werden keine Daten entfernt, die nach Amazon S3 exportiert wurden. Informationen zum Löschen der Daten über die Konsole finden Sie unter [Wie lösche ich Objekte aus einem S3-Bucket?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/delete-objects.html). Um die Daten mit der CLI zu löschen, verwenden Sie den Befehl [delete-object](https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html).

## Konsole
<a name="export-cluster-data.CancelConsole"></a>

**So brechen Sie eine DB-Cluster-Exportaufgabe ab**

1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die Amazon-RDS-Konsole unter [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Wählen Sie im Navigationsbereich die Option **Exports in Amazon S3** (Exporte in Amazon S3) aus.

   DB-Cluster-Exporte werden in der Spalte **Source type** (Quelltyp) angegeben. Der Exportstatus wird in der Spalte **Status** angezeigt.

1. Wählen Sie die Exportaufgabe aus, die Sie abbrechen möchten.

1. Klicken Sie auf **Abbrechen**.

1. Wählen Sie die Bestätigungsseite **Cancel export task (Exportaufgabe abbrechen)** aus.

 

## AWS CLI
<a name="export-cluster-data.CancelCLI"></a>

Um eine Exportaufgabe mit der AWS CLI abzubrechen, verwenden Sie den Befehl [cancel-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/cancel-export-task.html) aus. Der Befehl erfordert die Option `--export-task-identifier`.

**Example**  

```
 1. aws rds cancel-export-task --export-task-identifier my-export
 2. {
 3.     "Status": "CANCELING",
 4.     "S3Prefix": "",
 5.     "S3Bucket": "amzn-s3-demo-bucket",
 6.     "PercentProgress": 0,
 7.     "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
 8.     "ExportTaskIdentifier": "my-export",
 9.     "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
10.     "TotalExtractedDataInGB": 0,
11.     "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:export-example-1"
12. }
```

## RDS-API
<a name="export-cluster-data.CancelAPI"></a>

Wenn Sie eine Exportaufgabe mit der Amazon-RDS-API abbrechen möchten, verwenden Sie den Befehl [CancelExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_CancelExportTask.html) mit dem Parameter `ExportTaskIdentifier`.

# Fehlerbehebung bei Problemen mit DB-Cluster-Exporten
<a name="export-cluster-data.Troubleshooting"></a>

Nutzen Sie die folgenden Abschnitte, um Fehlermeldungen und PostgreSQL-Berechtigungsfehler bei DB-Cluster-Exporten nach Amazon S3 zu beheben.

## Fehlermeldungen für Amazon-S3-Exportaufgaben
<a name="export-cluster-data.failure-msg"></a>

In der folgenden Tabelle werden die Nachrichten beschrieben, die zurückgegeben werden, wenn Amazon-S3-Exportaufgaben fehlschlagen.


| Fehlernachricht | Beschreibung | 
| --- | --- | 
| Der Quell-DB-Cluster konnte nicht gefunden werden oder es konnte nicht darauf zugegriffen werden: [Clustername] | Der Quell-DB-Cluster kann nicht geklont werden. | 
| Ein unbekannter interner Fehler ist aufgetreten. |  Die Aufgabe ist fehlgeschlagen, da eine unbekannte Störung, eine Ausnahme oder ein Fehler aufgetreten ist.  | 
| Beim Schreiben der Metadaten der Exportaufgabe in den S3-Bucket [Bucket-Name] ist ein unbekannter interner Fehler aufgetreten. |  Die Aufgabe ist fehlgeschlagen, da eine unbekannte Störung, eine Ausnahme oder ein Fehler aufgetreten ist.  | 
| Der RDS-Export konnte die Metadaten der Exportaufgabe nicht schreiben, da er die IAM-Rolle [Rolle ARN] nicht übernehmen kann. |  Die Exportaufgabe geht davon aus, dass Ihre IAM-Rolle überprüft, ob es erlaubt ist Metadaten in Ihren S3-Bucket zu schreiben Wenn die Aufgabe Ihre IAM-Rolle nicht übernehmen kann, schlägt sie fehl.  | 
| Der RDS-Export konnte die Metadaten der Exportaufgabe nicht in den S3-Bucket [Bucket-Name] mit der IAM-Rolle [Rolle ARN] mit dem KMS-Schlüssel [Schlüssel-ID] schreiben. Fehlercode: [Fehlercode] |  Eine oder mehrere Berechtigungen fehlen, sodass die Exportaufgabe nicht auf den S3-Bucket zugreifen kann. Diese Fehlermeldung wird ausgelöst, wenn einer der folgenden Fehlercodes empfangen wird: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonRDS/latest/AuroraUserGuide/export-cluster-data.Troubleshooting.html) Diese Fehlercodes weisen darauf hin, dass für die IAM-Rolle, den S3-Bucket oder den KMS-Schlüssel Einstellungen falsch konfiguriert sind.  | 
| Die IAM-Rolle [Rolle ARN] ist nicht berechtigt, [S3-Aktion] im S3-Bucket [Bucket-Name] aufzurufen. Überprüfen Sie Ihre Berechtigungen und versuchen Sie den Export erneut. |  Die IAM-Richtlinie ist falsch konfiguriert. Die Berechtigung für die spezifische S3-Aktion für den S3-Bucket fehlt, was zu einem Fehler der Exportaufgabe führt.  | 
| Fehler bei der Überprüfung des KMS-Schlüssels. Überprüfen Sie die Anmeldeinformation Ihres KMS-Schlüssels und versuchen Sie es erneut. | Die Überprüfung der KMS-Schlüsselanmeldeinformationen ist fehlgeschlagen. | 
| Die Überprüfung der S3-Anmeldeinformation ist fehlgeschlagen. Überprüfen Sie die Berechtigungen für Ihren S3-Bucket und Ihre IAM-Richtlinie. | Die Überprüfung der S3-Anmeldeinformation ist fehlgeschlagen. | 
| Der S3-Bucket [Bucket-Name] ist ungültig. Entweder befindet sie sich nicht in der aktuellen AWS-Region oder es gibt sie nicht. Überprüfen Sie Ihren S3-Bucket-Namen und versuchen Sie den Export erneut. | Der S3-Bucket ist ungültig. | 
| Der S3-Bucket [Bucket-Name] befindet sich nicht in der aktuellen AWS-Region. Überprüfen Sie Ihren S3-Bucket-Namen und versuchen Sie den Export erneut. | Der S3-Bucket liegt in der falschen AWS-Region. | 

## Fehlerbehebung bei PostgreSQL-Berechtigungsfehlern
<a name="export-cluster-data.postgres-permissions"></a>

Beim Exportieren von PostgreSQL-Datenbanken in Amazon S3 wird möglicherweise ein `PERMISSIONS_DO_NOT_EXIST`-Fehler angezeigt, der besagt, dass bestimmte Tabellen übersprungen wurden. Dieser Fehler tritt normalerweise auf, wenn der Superuser, den Sie beim Erstellen des DB-Clusters angegeben haben, keine Berechtigungen für den Zugriff auf diese Tabellen besitzt.

Führen Sie den folgenden Befehl aus, um diesen Fehler zu beheben:

```
GRANT ALL PRIVILEGES ON ALL TABLES IN SCHEMA schema_name TO superuser_name
```

Weitere Informationen zu Superuser-Berechtigungen finden Sie unter [Berechtigungen von Hauptbenutzerkonten](UsingWithRDS.MasterAccounts.md).