

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Exportieren von DB-Snapshot-Daten nach Amazon S3 für Amazon RDS
<a name="USER_ExportSnapshot"></a>

Sie können DB-Snapshot-Daten in einen Amazon S3-Bucket exportieren. Der Exportprozess läuft im Hintergrund und beeinträchtigt die Leistung Ihrer aktiven Datenbank nicht.

Wenn Sie einen DB-Snapshot exportieren, extrahiert Amazon RDS Daten aus dem Snapshot und speichert sie in einem Amazon-S3-Bucket in Ihrem Konto. Die Daten werden in einem Apache Parquet-Format gespeichert, das komprimiert und konsistent ist.

Sie können alle Arten von DB-Snapshots exportieren, einschließlich manueller Snapshots, automatisierter System-Snapshots und Snapshots, die vom Service erstellt wurden. AWS Backup Standardmäßig werden alle Daten im Snapshot exportiert. Sie können sich jedoch dafür entscheiden, bestimmte Sätze von Datenbanken, Schemata oder Tabellen zu exportieren.

Nachdem die Daten exportiert wurden, können Sie die exportierten Daten direkt mit Tools wie Amazon Athena oder Amazon Redshift Spectrum analysieren. Weitere Informationen zur Verwendung von Athena zum Lesen von Parquet-Daten finden Sie unter [Parquet SerDe](https://docs.aws.amazon.com/athena/latest/ug/parquet-serde.html) im *Amazon Athena Athena-Benutzerhandbuch*. Weitere Informationen zur Verwendung von Redshift Spectrum zum Lesen von Parquet-Daten finden Sie unter [COPY from columnar data formats](https://docs.aws.amazon.com/redshift/latest/dg/copy-usage_notes-copy-from-columnar.html) im *Amazon Redshift Database Developer Guide*.

**Warnung**  
Sie können keine exportierten Snapshot-Daten aus S3 in einer neuen DB-Instance wiederherstellen oder Snapshot-Daten aus S3 in eine bestehende DB-Instance importieren. Sie können die Daten jedoch mit Amazon Athena oder Redshift Spectrum zur Analyse verarbeiten. Darüber hinaus können Sie die Daten AWS Glue transformieren und dann mithilfe von Tools wie AWS DMS oder benutzerdefinierten Skripten in Amazon RDS importieren.

Weitere Informationen zum Exportieren von DB-Snapshots nach Amazon S3 finden Sie in den folgenden Themen.

**Topics**
+ [Überwachen von Snapshot-Exporten für Amazon RDS](USER_ExportSnapshot.Monitoring.md)
+ [Abbrechen einer Snapshot-Exportaufgabe für Amazon RDS](USER_ExportSnapshot.Canceling.md)
+ [Fehlernachrichten für Amazon-S3-Exportaufgaben für Amazon RDS](USER_ExportSnapshot.failure-msg.md)
+ [Fehlerbehebung bei Berechtigungsfehlern in RDS für PostgreSQL](USER_ExportSnapshot.postgres-permissions.md)
+ [Dateibenennungskonventionen für Exporte nach Amazon S3 für Amazon RDS](USER_ExportSnapshot.FileNames.md)
+ [Datenkonvertierung beim Exportieren in einen Amazon-S3-Bucket für Amazon RDS](USER_ExportSnapshot.data-types.md)

## Übersicht über das Exportieren von Snapshot-Daten
<a name="USER_ExportSnapshot.Overview"></a>

Sie verwenden den folgenden Prozess, um DB-Snapshot-Daten in eine Amazon S3 einen Bucket zu exportieren. Weitere Informationen finden Sie in den folgenden Abschnitten.

1. Identifizieren Sie den zu exportierenden Snapshot.

   Verwenden Sie einen vorhandenen automatischen oder manuellen Snapshot oder erstellen Sie einen manuellen Snapshot einer DB-Instance oder eines DB-Clusters mit Multi-AZ.

1. Richten Sie den Zugriff auf den Amazon S3-Bucket ein.

   Ein *Bucket* ist ein Container für Amazon S3-Objekte oder -Dateien. Um die Informationen für den Zugriff auf einen Bucket bereitzustellen, führen Sie die folgenden Schritte aus:

   1. Identifizieren Sie den S3-Bucket, in den der Snapshot exportiert werden soll. Der S3-Bucket muss sich in derselben AWS Region wie der Snapshot befinden. Weitere Informationen finden Sie unter [Identifizieren des Amazon-S3-Buckets, in den exportiert werden soll](#USER_ExportSnapshot.SetupBucket).

   1. Erstellen Sie eine AWS Identity and Access Management (IAM-) Rolle, die der Snapshot-Exportaufgabe Zugriff auf den S3-Bucket gewährt. Weitere Informationen finden Sie unter [Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle](#USER_ExportSnapshot.SetupIAMRole). 

1. Erstellen Sie eine symmetrische Verschlüsselung AWS KMS key für die serverseitige Verschlüsselung. Der KMS-Schlüssel wird von der Snapshot-Exportaufgabe verwendet, um die AWS KMS serverseitige Verschlüsselung beim Schreiben der Exportdaten nach S3 einzurichten.

   Die KMS-Schlüsselrichtlinie muss die beiden Berechtigungen `kms:CreateGrant` und `kms:DescribeKey` enthalten. Weitere Informationen zur Verwendung von KMS-Schlüsseln in Amazon RDS finden Sie unter [AWS KMS key Verwaltung](Overview.Encryption.Keys.md).

   Wenn Ihre KMS-Schlüsselrichtlinie eine Deny-Anweisung enthält, stellen Sie sicher, dass Sie den AWS Dienstprinzipal `export.rds.amazonaws.com` explizit ausschließen.

   Sie können einen KMS-Schlüssel in Ihrem AWS Konto oder einen kontoübergreifenden KMS-Schlüssel verwenden. Weitere Informationen finden Sie unter [Verwendung eines Cross-Kontos AWS KMS key für die Verschlüsselung von Amazon S3 S3-Exporten](#USER_ExportSnapshot.CMK).

1. Exportieren Sie den Snapshot mit der Konsole oder dem CLI-Befehl `start-export-task` nach Amazon S3. Weitere Informationen finden Sie unter [Exportieren eines Snapshots in einen Amazon-S3-Bucket](#USER_ExportSnapshot.Exporting). 

1. Um auf Ihre exportierten Daten im Amazon S3-Bucket zuzugreifen, siehe [Hochladen, Herunterladen und Verwalten von Objekten](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-download-objects.html) im *Amazon Simple Storage Service User Guide*.

## Einrichten des Zugriffs auf einen Amazon-S3-Bucket
<a name="USER_ExportSnapshot.Setup"></a>

Um DB-Snapshot-Daten in eine Amazon S3-Datei zu exportieren, geben Sie zunächst dem Snapshot die Berechtigung für den Zugriff auf den Amazon S3-Bucket. Dann erstellen Sie eine IAM-Rolle, um dem Amazon-RDS-Service zu erlauben, in den Amazon S3-Bucket zu schreiben.

**Topics**
+ [Identifizieren des Amazon-S3-Buckets, in den exportiert werden soll](#USER_ExportSnapshot.SetupBucket)
+ [Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle](#USER_ExportSnapshot.SetupIAMRole)
+ [Einen kontoübergreifenden Amazon-S3-Bucket verwenden](#USER_ExportSnapshot.Setup.XAcctBucket)
+ [Verwendung eines Cross-Kontos AWS KMS key für die Verschlüsselung von Amazon S3 S3-Exporten](#USER_ExportSnapshot.CMK)

### Identifizieren des Amazon-S3-Buckets, in den exportiert werden soll
<a name="USER_ExportSnapshot.SetupBucket"></a>

Identifizieren Sie den Amazon-S3-Bucket, in den der DB-Snapshot exportiert werden soll. Verwenden Sie einen vorhandenen S3-Bucket oder erstellen Sie einen neuen S3-Bucket.

**Anmerkung**  
Der S3-Bucket, in den exportiert werden soll, muss sich in derselben AWS Region wie der Snapshot befinden.

Weitere Informationen zur Arbeit mit Amazon S3-Buckets finden Sie im *Amazon Simple Storage Service User Guide*:
+ [Wie zeige ich die Eigenschaften für einen S3-Bucket an?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/view-bucket-properties.html)
+ [Wie aktiviere ich die Standardverschlüsselung für einen Amazon S3-Bucket?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/default-bucket-encryption.html)
+ [Wie erstelle ich einen S3-Bucket?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-bucket.html)

### Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle
<a name="USER_ExportSnapshot.SetupIAMRole"></a>

Bevor Sie DB-Snapshot-Daten nach Amazon S3 exportieren, geben Sie den Snapshot-Exportaufgaben Schreibzugriffsrechte auf den Amazon S3-Bucket. 

Zum Gewähren dieser Berechtigung erstellen Sie eine IAM-Richtlinie, die Zugriff auf den Bucket ermöglicht. Erstellen Sie dann eine IAM-Rolle und fügen Sie der Rolle die Richtlinie an. Die IAM-Rolle weisen Sie später Ihrer Snapshot-Exportaufgabe zu.

Informationen zu weiteren Zugriffsverwaltungstools von Amazon S3 finden Sie unter [Identity and Access Management in Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-management.html) im *Benutzerhandbuch für Amazon S3*.

**Wichtig**  
Wenn Sie planen, den zum Exportieren Ihres Snapshots AWS-Managementkonsole zu verwenden, können Sie festlegen, dass die IAM-Richtlinie und die Rolle beim Exportieren des Snapshots automatisch erstellt werden. Detaillierte Anweisungen finden Sie unter [Exportieren eines Snapshots in einen Amazon-S3-Bucket](#USER_ExportSnapshot.Exporting).

**So geben Sie DB-Snapshot-Aufgaben Zugriff auf Amazon S3**

1. Erstellen Sie eine IAM-Richtlinie. Diese Richtlinie bietet die Berechtigungen für den Bucket und die Objekte, die den Zugriff auf Ihre Snapshot-Exportaufgabe ermöglichen Amazon S3. 

   Nehmen Sie die folgenden erforderlichen Aktionen in die Richtlinie auf, um die Übertragung von Dateien aus Amazon RDS in einen S3-Bucket zu ermöglichen: 
   + `s3:PutObject*`
   + `s3:GetObject*` 
   + `s3:ListBucket` 
   + `s3:DeleteObject*`
   +  `s3:GetBucketLocation`

   Fügen Sie in die Richtlinie die folgenden Ressourcen zur Identifizierung des S3-Buckets und der Objekte im Bucket ein. Die folgende Liste von Ressourcen zeigt das ARN-Format (Amazon-Ressourcenname) für den Amazon S3-Zugriff.
   + `arn:aws:s3:::amzn-s3-demo-bucket`
   + `arn:aws:s3:::amzn-s3-demo-bucket/*`

   Weitere Informationen zur Erstellung einer IAM-Richtlinie für Amazon RDS finden Sie unter [Erstellen und Verwenden einer IAM-Richtlinie für den IAM-Datenbankzugriff](UsingWithRDS.IAMDBAuth.IAMPolicy.md). Siehe auch [Tutorial: Erstellen und Anfügen Ihrer ersten vom Kunden verwalteten Richtlinie](https://docs.aws.amazon.com//IAM/latest/UserGuide/tutorial_managed-policies.html) im *IAM-Benutzerhandbuch*.

   Mit dem folgenden AWS CLI Befehl wird eine IAM-Richtlinie `ExportPolicy` mit diesen Optionen erstellt. Sie gewährt Zugriff auf einen Bucket namens *amzn-s3-demo-bucket*. 
**Anmerkung**  
Nachdem Sie die Richtlinie erstellt haben, notieren Sie den ARN der Richtlinie. Sie benötigen den ARN für einen nachfolgenden Schritt, in dem Sie die Richtlinie an eine IAM-Rolle anhängen. 

   ```
   aws iam create-policy  --policy-name ExportPolicy --policy-document '{
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "ExportPolicy",
               "Effect": "Allow",
               "Action": [
                   "s3:PutObject*",
                   "s3:ListBucket",
                   "s3:GetObject*",
                   "s3:DeleteObject*",
                   "s3:GetBucketLocation"
               ],
               "Resource": [
                   "arn:aws:s3:::amzn-s3-demo-bucket",
                   "arn:aws:s3:::amzn-s3-demo-bucket/*"
               ]
           }
       ]
   }'
   ```

1. Erstellen Sie eine IAM-Rolle, damit Amazon RDS diese IAM-Rolle in Ihrem Namen übernehmen kann, um auf Ihre Amazon-S3-Buckets zuzugreifen. Weitere Informationen finden Sie unter [Erstellen einer Rolle zum Delegieren von Berechtigungen an einen IAM-Benutzer](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-user.html) im *IAM-Benutzerhandbuch*.

   Das folgende Beispiel zeigt, wie der AWS CLI Befehl verwendet wird, um eine Rolle mit dem Namen `rds-s3-export-role` zu erstellen.

   ```
   aws iam create-role  --role-name rds-s3-export-role  --assume-role-policy-document '{
        "Version": "2012-10-17",		 	 	 
        "Statement": [
          {
            "Effect": "Allow",
            "Principal": {
               "Service": "export.rds.amazonaws.com"
             },
            "Action": "sts:AssumeRole"
          }
        ] 
      }'
   ```

1. Fügen Sie die erstellte IAM-Richtlinie der IAM-Rolle an, die Sie erstellt haben.

   Mit dem folgenden AWS CLI Befehl wird die zuvor erstellte Richtlinie an die angegebene `rds-s3-export-role` Rolle angehängt. Ersetzen Sie `your-policy-arn` durch den Richtlinien-ARN, den Sie in einem früheren Schritt notiert haben. 

   ```
   aws iam attach-role-policy  --policy-arn your-policy-arn  --role-name rds-s3-export-role
   ```

### Einen kontoübergreifenden Amazon-S3-Bucket verwenden
<a name="USER_ExportSnapshot.Setup.XAcctBucket"></a>

Sie können Amazon S3 S3-Buckets AWS kontenübergreifend verwenden. Um einen kontoübergreifenden Bucket zu verwenden, fügen Sie eine Bucket-Richtlinie hinzu, um den Zugriff auf die IAM-Rolle zu erlauben, die Sie für die S3-Exporte verwenden. Weitere Informationen finden Sie unter [Beispiel 2: Bucket-Eigentümer erteilt kontoübergreifende Bucket-Berechtigungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-walkthroughs-managing-access-example2.html).

Fügen Sie eine Bucket-Richtlinie an Ihren Bucket an, wie im folgenden Beispiel gezeigt.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::123456789012:role/Admin"
            },
            "Action": [
                "s3:PutObject*",
                "s3:ListBucket",
                "s3:GetObject*",
                "s3:DeleteObject*",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-destination-bucket",
                "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
            ]
        }
    ]
}
```

------

### Verwendung eines Cross-Kontos AWS KMS key für die Verschlüsselung von Amazon S3 S3-Exporten
<a name="USER_ExportSnapshot.CMK"></a>

Sie können ein Cross-Konto verwenden AWS KMS key , um Amazon S3 S3-Exporte zu verschlüsseln. Zuerst fügen Sie dem lokalen Konto eine Schlüsselrichtlinie hinzu und fügen dann IAM-Richtlinien im externen Konto hinzu. Weitere Informationen finden Sie unter [Benutzern in anderen Konten die Verwendung eines KMS-Schlüssels erlauben](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying-external-accounts.html).

**So verwenden Sie einen kontoübergreifenden KMS-Schlüssel**

1. Fügen Sie dem lokalen Konto eine Schlüsselrichtlinie hinzu.

   Das folgende Beispiel gibt `ExampleRole` und `ExampleUser` im externen Konto 444455556666 Berechtigungen im lokalen Konto 123456789012.

   ```
   {
       "Sid": "Allow an external account to use this KMS key",
       "Effect": "Allow",
       "Principal": {
           "AWS": [
               "arn:aws:iam::444455556666:role/ExampleRole",
               "arn:aws:iam::444455556666:user/ExampleUser"
           ]
       },
       "Action": [
           "kms:Encrypt",
           "kms:Decrypt",
           "kms:ReEncrypt*",
           "kms:GenerateDataKey*",
           "kms:CreateGrant",
           "kms:DescribeKey",
           "kms:RetireGrant"
       ],
       "Resource": "*"
   }
   ```

1. Fügen Sie IAM-Richtlinien im externen Konto hinzu.

   Die folgende IAM-Richtlinie erlaubt es dem Prinzipal, den KMS-Schlüssel im Konto 123456789012 für kryptografische Operationen zu erlauben. Um diese Berechtigung an `ExampleRole` und `ExampleUser` zu erteilen, [fügen Sie die Richtlinie](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_managed-using.html#attach-managed-policy-console) zu ihnen im Konto 444455556666 an.

   ```
   {
       "Sid": "Allow use of KMS key in account 123456789012",
       "Effect": "Allow",
       "Action": [
           "kms:Encrypt",
           "kms:Decrypt",
           "kms:ReEncrypt*",
           "kms:GenerateDataKey*",
           "kms:CreateGrant",
           "kms:DescribeKey",
           "kms:RetireGrant"
       ],
       "Resource": "arn:aws:kms:us-west-2:123456789012:key/1234abcd-12ab-34cd-56ef-1234567890ab"
   }
   ```

## Exportieren eines Snapshots in einen Amazon-S3-Bucket
<a name="USER_ExportSnapshot.Exporting"></a>

Pro Person können bis zu fünf DB-Snapshot-Exportaufgaben gleichzeitig ausgeführt werden. AWS-Konto

**Anmerkung**  
Das Exportieren von RDS-Snapshots kann je nach Datenbanktyp und -größe eine Weile dauern. Die Exportaufgabe stellt zuerst die gesamte Datenbank wieder her und skaliert sie, bevor die Daten in Amazon S3 extrahiert werden. Der Fortschritt des Vorgangs während dieser Phase wird als **Starting (Startet)** angezeigt. Wenn die Aufgabe zum Exportieren von Daten zu S3 wechselt, wird der Fortschritt als **In progress (In Bearbeitung)** angezeigt.  
Die Zeit, die für den Export benötigt wird, hängt von den in der Datenbank gespeicherten Daten ab. Beispielsweise exportieren Tabellen mit gut verteilten numerischen Primärschlüssel- oder Indexspalten am schnellsten. Bei Tabellen, die keine Spalte enthalten, die für die Partitionierung geeignet ist, und bei Tabellen mit nur einem Index für eine auf Zeichenfolgen basierende Spalte, dauert dies länger, da der Export einen langsameren Single-Thread-Prozess verwendet. Diese längere Exportzeit tritt auf, da der Export einen langsameren Single-Thread-Prozess verwendet. 

Sie können einen DB-Snapshot mit der AWS-Managementkonsole, der oder der RDS-API nach Amazon S3 exportieren. AWS CLI Verwenden Sie die AWS CLI oder die RDS-API, um einen DB-Snapshot in einen kontoübergreifenden Amazon S3 S3-Bucket zu exportieren.

Wenn Sie eine Lambda-Funktion zum Exportieren eines Snapshots verwenden, fügen Sie die Aktion `kms:DescribeKey` der Lambda-Funktionsrichtlinie hinzu. Weitere Informationen finden Sie unter [AWS Lambda Berechtigungen](https://docs.aws.amazon.com/lambda/latest/dg/lambda-permissions.html).

### Konsole
<a name="USER_ExportSnapshot.ExportConsole"></a>

Die Konsolenoption **Export to Amazon S3 (Zu Amazon S3-Konsole exportieren)** wird nur für Snapshots angezeigt, die zu Amazon S3 exportiert werden können. Ein Snapshot ist aus folgenden Gründen möglicherweise nicht für den Export verfügbar:
+ Die DB-Engine wird für den S3-Export nicht unterstützt.
+ Die DB-Engine-Version wird für den S3-Export nicht unterstützt.
+ Der S3-Export wird in der AWS Region, in der der Snapshot erstellt wurde, nicht unterstützt.

**So exportieren Sie einen DB-Snapshot:**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon RDS-Konsole unter [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Wählen Sie im Navigationsbereich die Option **Snapshots**.

1. Wählen Sie auf den Registerkarten die Art des Snapshots aus, den Sie exportieren möchten.

1. Wählen Sie in der Liste der Snapshots den Snapshot aus, den Sie exportieren möchten.

1. Wählen Sie für **Actions (Aktionen)** die Option **Export to Amazon S3 (Nach Amazon S3 exportieren)** aus.

   Das Fenster **Export to Amazon S3 (Nach Amazon S3 exportieren)** erscheint.

1. Geben Sie für **Export identifier (Export-ID)** einen Namen ein, um die Exportaufgabe zu identifizieren. Dieser Wert wird auch für den Namen der im S3-Bucket erstellten Datei verwendet.

1. Wählen Sie die zu exportierenden Daten aus:
   + Wählen Sie **All (Alle)**, um alle Daten im Snapshot zu exportieren.
   + Wählen Sie **Partial (Teilweise)**, um bestimmte Teile des Snapshots zu exportieren. Um zu ermitteln, welche Teile des Snapshots exportiert werden sollen, geben Sie eine oder mehrere Datenbanken, Schemas oder Tabellen für** Bezeichner** ein, getrennt durch Leerzeichen.

     Verwenden Sie das folgende Format:

     ```
     database[.schema][.table] database2[.schema2][.table2] ... databasen[.scheman][.tablen]
     ```

     Zum Beispiel:

     ```
     mydatabase mydatabase2.myschema1 mydatabase2.myschema2.mytable1 mydatabase2.myschema2.mytable2
     ```

1. Wählen Sie für **S3 bucket (S3-Bucket)** den Bucket aus, in den exportiert werden soll.

   Um die exportierten Daten einem Ordnerpfad im S3-Bucket zuzuordnen, geben Sie den optionalen Pfad für **S3 prefix (S3-Präfix)** ein.

1. Wählen Sie für die **IAM-Rolle** entweder eine Rolle, die Ihnen Schreibzugriff auf den gewählten S3-Bucket gewährt, oder erstellen Sie eine neue Rolle. 
   + Wenn Sie eine Rolle durch Befolgen der Schritte in [Bereitstellen des Zugriffs auf einen Amazon S3-Bucket mit einer IAM-Rolle](#USER_ExportSnapshot.SetupIAMRole) erstellt haben, wählen Sie diese Rolle.
   + Wenn Sie keine Rolle erstellt haben, die Ihnen Schreibzugriff auf den von Ihnen gewählten S3-Bucket gewährt, wählen Sie **Create a new role** (Neue Rolle erstellen) aus, um die Rolle automatisch zu erstellen. Geben Sie dann unter **IAM role name (IAM-Rollenname)** einen Namen für die Rolle ein.

1. Für **AWS KMS key** geben Sie den ARN für den Schlüssel ein, der für die Verschlüsselung der exportierten Daten verwendet werden soll.

1. Wählen Sie **Export to Amazon S3 (Nach Amazon S3 exportieren)** aus.

### AWS CLI
<a name="USER_ExportSnapshot.ExportCLI"></a>

Um einen DB-Snapshot mit dem nach Amazon S3 zu exportieren AWS CLI, verwenden Sie den [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html)Befehl mit den folgenden erforderlichen Optionen:
+ `--export-task-identifier` 
+ `--source-arn` 
+ `--s3-bucket-name` 
+ `--iam-role-arn` 
+ `--kms-key-id` 

In den folgenden Beispielen wird die Snapshot-Exportaufgabe benannt*my-snapshot-export*, die einen Snapshot in einen S3-Bucket mit dem Namen exportiert*amzn-s3-demo-bucket*.

**Example**  
Für Linux, macOS oder Unix:  

```
1. aws rds start-export-task \
2.     --export-task-identifier my-snapshot-export \
3.     --source-arn arn:aws:rds:AWS_Region:123456789012:snapshot:snapshot-name \
4.     --s3-bucket-name amzn-s3-demo-bucket \
5.     --iam-role-arn iam-role \
6.     --kms-key-id my-key
```
Für Windows:  

```
1. aws rds start-export-task ^
2.     --export-task-identifier my-snapshot-export ^
3.     --source-arn arn:aws:rds:AWS_Region:123456789012:snapshot:snapshot-name ^
4.     --s3-bucket-name amzn-s3-demo-bucket ^
5.     --iam-role-arn iam-role ^
6.     --kms-key-id my-key
```
Beispiel für eine Ausgabe folgt.  

```
{
    "Status": "STARTING", 
    "IamRoleArn": "iam-role", 
    "ExportTime": "2019-08-12T01:23:53.109Z", 
    "S3Bucket": "my-export-bucket", 
    "PercentProgress": 0, 
    "KmsKeyId": "my-key", 
    "ExportTaskIdentifier": "my-snapshot-export", 
    "TotalExtractedDataInGB": 0, 
    "TaskStartTime": "2019-11-13T19:46:00.173Z", 
    "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:snapshot-name"
}
```
Um einen Ordnerpfad im S3-Bucket für den Snapshot-Export anzugeben, fügen Sie die `--s3-prefix` Option in den [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html)Befehl ein.

### RDS-API
<a name="USER_ExportSnapshot.ExportAPI"></a>

Um einen DB-Snapshot mithilfe der Amazon RDS-API nach Amazon S3 zu exportieren, verwenden Sie den [StartExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_StartExportTask.html)Vorgang mit den folgenden erforderlichen Parametern:
+ `ExportTaskIdentifier`
+ `SourceArn`
+ `S3BucketName`
+ `IamRoleArn`
+ `KmsKeyId`

## Verfügbarkeit von Regionen und Versionen
<a name="USER_ExportSnapshot.RegionVersionAvailability"></a>

Die Verfügbarkeit von Funktionen und der Support variieren zwischen bestimmten Versionen der einzelnen Datenbank-Engines und in allen AWS-Regionen. Weitere Informationen zur Versions- und Regionsverfügbarkeit beim Exportieren von Snapshots nach S3 finden Sie unter [Unterstützte Regionen und DB-Engines für den Export von Snapshots nach S3 in Amazon RDS](Concepts.RDS_Fea_Regions_DB-eng.Feature.ExportSnapshotToS3.md).

## Einschränkungen
<a name="USER_ExportSnapshot.Limits"></a>

Das Exportieren von DB-Snapshot-Daten nach Amazon S3 hat die folgenden Einschränkungen:
+ Sie können nicht mehrere Exportaufgaben für denselben DB-Snapshot gleichzeitig ausführen. Dies gilt sowohl für vollständige als auch Teilexporte.
+ Das Exportieren von Snapshots aus Datenbanken, die magnetischen Speicher verwenden, wird nicht unterstützt.
+ Exporte nach S3 unterstützen keine S3-Präfixe, die einen Doppelpunkt (:) enthalten.
+ Die folgenden Zeichen im S3-Dateipfad werden während des Exports in Unterstriche (\$1) konvertiert:

  ```
  \ ` " (space)
  ```
+ Wenn eine Datenbank, ein Schema oder eine Tabelle andere Zeichen als den folgenden enthält, wird ein teilweiser Export nicht unterstützt. Sie können jedoch den gesamten DB-Snapshot exportieren.
  + Lateinische Buchstaben (A–Z)
  + Ziffern (0–9)
  + Dollar-Symbol (\$1)
  + Unterstrich (\$1)
+ Leerzeichen ( ) und bestimmte andere Zeichen werden in den Spaltennamen von Datenbanktabellen nicht unterstützt. Tabellen mit den folgenden Zeichen in Spaltennamen werden beim Export übersprungen:

  ```
  , ; { } ( ) \n \t = (space)
  ```
+ Tabellen mit Schrägstrichen (/) im Namen werden beim Export übersprungen.
+ Temporäre und nicht protokollierte Tabellen von RDS für PostgreSQL werden beim Export übersprungen.
+ Wenn die Daten ein großes Objekt wie BLOB oder CLOB mit einer Größe von 500 MB oder mehr enthalten, schlägt der Export fehl.
+ Wenn eine Zeile in einer Tabelle ca. 2 GB groß oder noch größer ist, wird die Tabelle beim Export übersprungen.
+ Bei Teilexporten beträgt die maximale Größe der `ExportOnly`-Liste 200 KB.
+ Es wird dringend empfohlen, für jede Exportaufgabe einen eindeutigen Namen zu verwenden. Wenn Sie keinen eindeutigen Aufgabennamen verwenden, erhalten Sie möglicherweise die folgende Fehlermeldung:

  ExportTaskAlreadyExistsFault: Beim Aufrufen des StartExportTask Vorgangs ist ein Fehler aufgetreten (ExportTaskAlreadyExists): Die Exportaufgabe mit der ID ist *xxxxx* bereits vorhanden.
+ Sie können einen Snapshot löschen, während Sie seine Daten nach S3 exportieren, aber die Speicherkosten für diesen Snapshot werden Ihnen so lange in Rechnung gestellt, bis die Exportaufgabe abgeschlossen ist.
+ Sie können keine exportierten Snapshot-Daten aus S3 in einer neuen DB-Instance wiederherstellen oder Snapshot-Daten aus S3 in eine bestehende DB-Instance importieren.
+ Pro Person AWS-Konto können bis zu fünf DB-Snapshot-Exportaufgaben gleichzeitig ausgeführt werden.
+ Um einen DB-Snapshot in einen kontoübergreifenden Amazon S3 S3-Bucket zu exportieren, müssen Sie die AWS CLI oder die RDS-API verwenden.
+ Nachdem Amazon RDS eine Exportaufgabe abgeschlossen hat, müssen Sie möglicherweise kurz warten, bis Sie eine weitere Exportaufgabe aus demselben DB-Snapshot starten können.
+ Sie können keine Ansichten oder materialisierte Ansichten exportieren.
+ Der RDS-Export nach S3 unterstützt keine tagbasierte Zugriffskontrolle für. GuardDuty Malware Protection for S3

# Überwachen von Snapshot-Exporten für Amazon RDS
<a name="USER_ExportSnapshot.Monitoring"></a>

Sie können DB-Snapshot-Exporte mit der AWS-Managementkonsole, der AWS CLI oder der RDS-API überwachen.

## Konsole
<a name="USER_ExportSnapshot.MonitorConsole"></a>

**So überwachen Sie DB-Snapshot-Exporte:**

1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die Amazon-RDS-Konsole unter [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Wählen Sie im Navigationsbereich die Option **Snapshots**.

1. Um die Liste der Snapshot-Exporte anzuzeigen, wählen Sie die Registerkarte **Exports in Amazon S3 (Exporte in Amazon S3)** aus.

1. Um Informationen über einen bestimmten Snapshot-Export anzuzeigen, wählen Sie die Exportaufgabe aus.

## AWS CLI
<a name="USER_ExportSnapshot.MonitorCLI"></a>

Um DB-Snapshot-Exporte mit der AWS CLI zu überwachen, verwenden Sie den Befehl [describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html).

Das folgende Beispiel zeigt, wie Sie aktuelle Informationen über alle Ihre Snapshot-Exporte anzeigen können.

**Example**  

```
 1. aws rds describe-export-tasks
 2. 
 3. {
 4.     "ExportTasks": [
 5.         {
 6.             "Status": "CANCELED",
 7.             "TaskEndTime": "2019-11-01T17:36:46.961Z",
 8.             "S3Prefix": "something",
 9.             "ExportTime": "2019-10-24T20:23:48.364Z",
10.             "S3Bucket": "amzn-s3-demo-bucket",
11.             "PercentProgress": 0,
12.             "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
13.             "ExportTaskIdentifier": "anewtest",
14.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
15.             "TotalExtractedDataInGB": 0,
16.             "TaskStartTime": "2019-10-25T19:10:58.885Z",
17.             "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:parameter-groups-test"
18.         },
19. {
20.             "Status": "COMPLETE",
21.             "TaskEndTime": "2019-10-31T21:37:28.312Z",
22.             "WarningMessage": "{\"skippedTables\":[],\"skippedObjectives\":[],\"general\":[{\"reason\":\"FAILED_TO_EXTRACT_TABLES_LIST_FOR_DATABASE\"}]}",
23.             "S3Prefix": "",
24.             "ExportTime": "2019-10-31T06:44:53.452Z",
25.             "S3Bucket": "amzn-s3-demo-bucket1",
26.             "PercentProgress": 100,
27.             "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
28.             "ExportTaskIdentifier": "thursday-events-test", 
29.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
30.             "TotalExtractedDataInGB": 263,
31.             "TaskStartTime": "2019-10-31T20:58:06.998Z",
32.             "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:rds:example-1-2019-10-31-06-44"
33.         },
34.         {
35.             "Status": "FAILED",
36.             "TaskEndTime": "2019-10-31T02:12:36.409Z",
37.             "FailureCause": "The S3 bucket edgcuc-export isn't located in the current AWS Region. Please, review your S3 bucket name and retry the export.",
38.             "S3Prefix": "",
39.             "ExportTime": "2019-10-30T06:45:04.526Z",
40.             "S3Bucket": "amzn-s3-demo-bucket2",
41.             "PercentProgress": 0,
42.             "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
43.             "ExportTaskIdentifier": "wednesday-afternoon-test",
44.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
45.             "TotalExtractedDataInGB": 0,
46.             "TaskStartTime": "2019-10-30T22:43:40.034Z",
47.             "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:rds:example-1-2019-10-30-06-45"
48.         }
49.     ]
50. }
```
Um Informationen über einen bestimmten Snapshot-Export anzuzeigen, fügen Sie die Option `--export-task-identifier` mit dem Befehl `describe-export-tasks` ein. Um die Ausgabe zu filtern, fügen Sie die Option `--Filters` ein. Weitere Optionen finden Sie beim [describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html)-Befehl.

## RDS-API
<a name="USER_ExportSnapshot.MonitorAPI"></a>

Um Informationen über DB-Snapshot-Exporte mit der Amazon-RDS-API anzuzeigen, verwenden Sie die [DescribeExportTasks](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_DescribeExportTasks.html)-Operation.

Um den Abschluss des Exportworkflows zu verfolgen oder einen anderen Workflow zu initiieren, können Sie Themen von Amazon Simple Notification Service abonnieren. Weitere Informationen zu Amazon SNS finden Sie unter [Arbeiten mit Amazon-RDS-Ereignisbenachrichtigungen](USER_Events.md).

# Abbrechen einer Snapshot-Exportaufgabe für Amazon RDS
<a name="USER_ExportSnapshot.Canceling"></a>

Sie können eine DB-Snapshot-Exportaufgabe mit Hilfe der AWS-Managementkonsole, der AWS CLI oder der RDS-API abbrechen.

**Anmerkung**  
Das Abbrechen einer Snapshot-Exportaufgabe entfernt keine Daten, die nach Amazon S3 exportiert wurden. Informationen zum Löschen der Daten über die Konsole finden Sie unter [Wie lösche ich Objekte aus einem S3-Bucket?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/delete-objects.html). Um die Daten mit der CLI zu löschen, verwenden Sie den Befehl [delete-object](https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html).

## Konsole
<a name="USER_ExportSnapshot.CancelConsole"></a>

**So brechen Sie eine Aufgabe zum Export von Snapshots ab:**

1. Melden Sie sich bei der AWS-Managementkonsole an und öffnen Sie die Amazon-RDS-Konsole unter [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Wählen Sie im Navigationsbereich die Option **Snapshots**.

1. Wählen Sie die Registerkarte **Exports in Amazon S3 (Exporte in Amazon S3)** aus.

1. Wählen Sie die Snapshot-Exportaufgabe aus, die Sie abbrechen möchten.

1. Klicken Sie auf **Abbrechen**.

1. Wählen Sie die Bestätigungsseite **Cancel export task (Exportaufgabe abbrechen)** aus.

 

## AWS CLI
<a name="USER_ExportSnapshot.CancelCLI"></a>

Um eine Snapshot-Exportaufgabe mit der AWS CLI abzubrechen, verwenden Sie den Befehl [cancel-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/cancel-export-task.html) aus. Der Befehl erfordert die Option `--export-task-identifier`.

**Example**  

```
 1. aws rds cancel-export-task --export-task-identifier my_export
 2. {
 3.     "Status": "CANCELING", 
 4.     "S3Prefix": "", 
 5.     "ExportTime": "2019-08-12T01:23:53.109Z", 
 6.     "S3Bucket": "amzn-s3-demo-bucket", 
 7.     "PercentProgress": 0, 
 8.     "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY", 
 9.     "ExportTaskIdentifier": "my_export", 
10.     "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3", 
11.     "TotalExtractedDataInGB": 0, 
12.     "TaskStartTime": "2019-11-13T19:46:00.173Z", 
13.     "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:export-example-1"
14. }
```

## RDS-API
<a name="USER_ExportSnapshot.CancelAPI"></a>

Um einen Snapshot-Exportauftrag mit der Amazon-RDS-API abzubrechen, verwenden Sie den Befehl [CancelExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_CancelExportTask.html) mit dem Parameter `ExportTaskIdentifier`.

# Fehlernachrichten für Amazon-S3-Exportaufgaben für Amazon RDS
<a name="USER_ExportSnapshot.failure-msg"></a>

In der folgenden Tabelle werden die Nachrichten beschrieben, die zurückgegeben werden, wenn Amazon-S3-Exportaufgaben fehlschlagen.


| Fehlernachricht | Beschreibung | 
| --- | --- | 
| Ein unbekannter interner Fehler ist aufgetreten. |  Die Aufgabe ist fehlgeschlagen, da eine unbekannte Störung, eine Ausnahme oder ein Fehler aufgetreten ist.  | 
| Beim Schreiben der Metadaten der Exportaufgabe in den S3-Bucket [Bucket-Name] ist ein unbekannter interner Fehler aufgetreten. |  Die Aufgabe ist fehlgeschlagen, da eine unbekannte Störung, eine Ausnahme oder ein Fehler aufgetreten ist.  | 
| Der RDS-Export konnte die Metadaten der Exportaufgabe nicht schreiben, da er die IAM-Rolle [Rolle ARN] nicht übernehmen kann. |  Die Exportaufgabe geht davon aus, dass Ihre IAM-Rolle überprüft, ob es erlaubt ist Metadaten in Ihren S3-Bucket zu schreiben Wenn die Aufgabe Ihre IAM-Rolle nicht übernehmen kann, schlägt sie fehl.  | 
| Der RDS-Export konnte die Metadaten der Exportaufgabe nicht in den S3-Bucket [Bucket-Name] mit der IAM-Rolle [Rolle ARN] mit dem KMS-Schlüssel [Schlüssel-ID] schreiben. Fehlercode: [Fehlercode] |  Eine oder mehrere Berechtigungen fehlen, sodass die Exportaufgabe nicht auf den S3-Bucket zugreifen kann. Diese Fehlermeldung wird ausgelöst, wenn einer der folgenden Fehlercodes empfangen wird: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonRDS/latest/UserGuide/USER_ExportSnapshot.failure-msg.html) Diese Fehlercodes weisen darauf hin, dass für die IAM-Rolle, den S3-Bucket oder den KMS-Schlüssel Einstellungen falsch konfiguriert sind.  | 
| Die IAM-Rolle [Rolle ARN] ist nicht berechtigt, [S3-Aktion] im S3-Bucket [Bucket-Name] aufzurufen. Überprüfen Sie Ihre Berechtigungen und versuchen Sie den Export erneut. |  Die IAM-Richtlinie ist falsch konfiguriert. Die Berechtigung für die spezifische S3-Aktion für den S3-Bucket fehlt, was zu einem Fehler der Exportaufgabe führt.  | 
| Fehler bei der Überprüfung des KMS-Schlüssels. Überprüfen Sie die Anmeldeinformation Ihres KMS-Schlüssels und versuchen Sie es erneut. | Die Überprüfung der KMS-Schlüsselanmeldeinformationen ist fehlgeschlagen. | 
| Die Überprüfung der S3-Anmeldeinformation ist fehlgeschlagen. Überprüfen Sie die Berechtigungen für Ihren S3-Bucket und Ihre IAM-Richtlinie. | Die Überprüfung der S3-Anmeldeinformation ist fehlgeschlagen. | 
| Der S3-Bucket [Bucket-Name] ist ungültig. Entweder befindet es sich nicht in der aktuellen AWS Region oder es gibt sie nicht. Überprüfen Sie Ihren S3-Bucket-Namen und versuchen Sie den Export erneut. | Der S3-Bucket ist ungültig. | 
| Der S3-Bucket [Bucket-Name] befindet sich nicht in der aktuellen AWS Region. Überprüfen Sie Ihren S3-Bucket-Namen und versuchen Sie den Export erneut. | Der S3-Bucket liegt in der falschen AWS Region. | 

# Fehlerbehebung bei Berechtigungsfehlern in RDS für PostgreSQL
<a name="USER_ExportSnapshot.postgres-permissions"></a>

Beim Exportieren von PostgreSQL-Datenbanken in Amazon S3 wird möglicherweise ein `PERMISSIONS_DO_NOT_EXIST`-Fehler angezeigt, der besagt, dass bestimmte Tabellen übersprungen wurden. Dieser Fehler tritt normalerweise auf, wenn der Superuser, den Sie beim Erstellen der Datenbank angegeben haben, keine Berechtigungen für den Zugriff auf diese Tabellen besitzt.

Führen Sie den folgenden Befehl aus, um diesen Fehler zu beheben:

```
GRANT ALL PRIVILEGES ON ALL TABLES IN SCHEMA schema_name TO superuser_name
```

Weitere Informationen zu Superuser-Berechtigungen finden Sie unter [Berechtigungen von Hauptbenutzerkonten](UsingWithRDS.MasterAccounts.md).

# Dateibenennungskonventionen für Exporte nach Amazon S3 für Amazon RDS
<a name="USER_ExportSnapshot.FileNames"></a>

Exportierte Daten für bestimmte Tabellen werden im Format `base_prefix/files` gespeichert, wobei das Basispräfix folgendes ist:

```
export_identifier/database_name/schema_name.table_name/
```

Zum Beispiel:

```
export-1234567890123-459/rdststdb/rdststdb.DataInsert_7ADB5D19965123A2/
```

Es gibt zwei Konventionen für die Benennung von Dateien.
+ Aktuelle Konvention:

  ```
  batch_index/part-partition_index-random_uuid.format-based_extension
  ```

  Der Batch-Index ist eine Sequenznummer, die einen aus der Tabelle gelesenen Datenstapel darstellt. Wenn wir Ihre Tabelle nicht in kleine Datenblöcke aufteilen können, die parallel exportiert werden können, gibt es mehrere Batch-Indizes. Das Gleiche passiert bei einer Partitionierung Ihrer Tabelle in mehrere Tabellen. Es gibt mehrere Batch-Indizes, einen für jede Tabellenpartition Ihrer Haupttabelle.

  Wenn wir Ihre Tabelle in kleine Datenblöcke aufteilen können, die parallel gelesen werden, gibt es nur den Batch-Index-Ordner `1`.

  Im Batch-Index-Ordner befinden sich eine oder mehrere Parquet-Dateien, die die Daten Ihrer Tabelle enthalten. Das Präfix des Parquet-Dateinamens ist `part-partition_index`. Wenn Ihre Tabelle partitioniert ist, gibt es mehrere Dateien, die mit dem Partitionsindex `00000` beginnen.

  Es kann Lücken in der Reihenfolge des Partitionsindex geben. Dies liegt daran, dass jede Partition mit einer Bereichsabfrage aus Ihrer Tabelle abgerufen wird. Wenn sich im Bereich dieser Partition keine Daten befinden, wird diese Sequenznummer übersprungen.

  Angenommen, die `id`-Spalte ist der Primärschlüssel der Tabelle und deren Minimal- und Maximalwerte sind `100` und `1000`. Wenn wir versuchen, diese Tabelle mit 9 Partitionen zu exportieren, lesen wir sie mit parallelen Abfragen wie den folgenden:

  ```
  SELECT * FROM table WHERE id <= 100 AND id < 200
  SELECT * FROM table WHERE id <= 200 AND id < 300
  ```

  Dies sollte 9 Dateien von `part-00000-random_uuid.gz.parquet` bis `part-00008-random_uuid.gz.parquet` generieren. Wenn es jedoch keine Zeilen mit IDs zwischen `200` und `350` gibt, ist eine der abgeschlossenen Partitionen leer und es wird keine Datei für diese erstellt. Im vorherigen Beispiel wurde `part-00001-random_uuid.gz.parquet` nicht erstellt.
+ Ältere Konvention:

  ```
  part-partition_index-random_uuid.format-based_extension
  ```

  Diese entspricht der aktuellen Konvention, allerdings ohne das `batch_index`-Präfix, zum Beispiel:

  ```
  part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet
  part-00001-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
  part-00002-f5a991ab-59aa-7fa6-3333-d41eccd340a7-c000.gz.parquet
  ```

Die Namenskonvention für Dateien kann geändert werden. Daher empfehlen wir beim Lesen von Zieltabellen, dass Sie alles innerhalb des Basispräfixes für die Tabelle lesen.

# Datenkonvertierung beim Exportieren in einen Amazon-S3-Bucket für Amazon RDS
<a name="USER_ExportSnapshot.data-types"></a>

Wenn Sie einen DB-Snapshot in einen Amazon S3-Bucket exportieren, konvertiert Amazon RDS Daten in das Parquet-Format, exportiert Daten darin und speichert Daten im Parquet-Format. Weitere Informationen über Parquet finden Sie auf der Website [Apache Parquet](https://parquet.apache.org/docs/).

Parquet speichert alle Daten als einen der folgenden primitiven Typen:
+ BOOLEAN
+ INT32
+ INT64
+ INT96
+ FLOAT
+ DOUBLE
+ BYTE\$1ARRAY – Ein Byte-Array mit variabler Länge, auch bekannt als Binary
+ FIXED\$1LEN\$1BYTE\$1ARRAY – Ein Byte-Array fester Länge, das verwendet wird, wenn die Werte eine konstante Größe haben

Es gibt nur wenige Parquet-Datentypen, um die Komplexität beim Lesen und Schreiben des Formats zu reduzieren. Parquet bietet logische Typen zur Erweiterung primitiver Typen. Ein *logischer Typ* ist als Annotation, bei der Daten in einem `LogicalType`-Metadatenfeld implementiert sind. Die logische Typannotation beschreibt, wie der primitive Typ zu interpretieren ist. 

Wenn der logische Typ `STRING` einen `BYTE_ARRAY`-Typ annotiert, gibt er an, dass das Byte-Array als UTF-8-kodierte Zeichenfolge interpretiert werden soll. Nach Abschluss einer Exportaufgabe informiert Sie Amazon RDS, wenn eine Zeichenfolgenkonvertierung stattgefunden hat. Die zugrunde liegenden exportierten Daten entsprechen immer den Daten aus der Quelle. Aufgrund des Kodierungsunterschieds in UTF-8 können jedoch einige Zeichen beim Einlesen von Tools wie Athena anders als in der Quelle erscheinen.

Weitere Informationen finden Sie unter [Logische Typdefinitionen für Parquet](https://github.com/apache/parquet-format/blob/master/LogicalTypes.md) in der Parquet-Dokumentation.

**Topics**
+ [MySQL- und MariaDB-Datentyp-Mapping zu Parquet](#USER_ExportSnapshot.data-types.MySQL)
+ [PostgreSQL-Datentyp-Mapping zu Parquet](#USER_ExportSnapshot.data-types.PostgreSQL)

## MySQL- und MariaDB-Datentyp-Mapping zu Parquet
<a name="USER_ExportSnapshot.data-types.MySQL"></a>

Die folgende Tabelle zeigt das Mapping von MySQL- und MariaDB-Datentypen zu Parquet-Datentypen, wenn die Daten konvertiert und nach Amazon S3 exportiert werden.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonRDS/latest/UserGuide/USER_ExportSnapshot.data-types.html)

## PostgreSQL-Datentyp-Mapping zu Parquet
<a name="USER_ExportSnapshot.data-types.PostgreSQL"></a>

Die folgende Tabelle zeigt das Mapping von PostgreSQL-Datentypen zu Parquet-Datentypen, wenn Daten konvertiert und nach Amazon S3 exportiert werden.


| PostgreSQL-Datentyp | Parquet-Primitiv-Typ | Logische Typannotation | Anmerkungen zum Mapping | 
| --- | --- | --- | --- | 
| Numerische Datentypen | 
| BIGINT | INT64 |  |   | 
| BIGSERIAL | INT64 |  |   | 
| DECIMAL | BYTE\$1ARRAY | STRING | Ein DECIMAL-Typ wird in eine Zeichenfolge in einem BYTE\$1ARRAY-Typ konvertiert und als codiert. UTF8Diese Konvertierung soll Komplikationen aufgrund von Datengenauigkeit und Datenwerten, die keine Zahlen sind (NaN), vermeiden. | 
| DOUBLE PRECISION | DOUBLE |  |   | 
| INTEGER | INT32 |  |   | 
| MONEY | BYTE\$1ARRAY | STRING |   | 
| REAL | FLOAT |  |   | 
| SERIAL | INT32 |  |   | 
| SMALLINT | INT32 | INT (16, true) |   | 
| SMALLSERIAL | INT32 | INT (16, true) |   | 
| Zeichenfolgen- und verwandte Datentypen | 
| ARRAY | BYTE\$1ARRAY | STRING |  Ein Array wird in eine Zeichenfolge konvertiert und als BINARY () codiert. UTF8 Diese Konvertierung dient dazu, Komplikationen aufgrund von Datengenauigkeit, Datenwerten, die keine Zahl sind (NaN), und Zeitdatenwerten zu vermeiden.  | 
| BIT | BYTE\$1ARRAY | STRING |   | 
| BIT VARYING | BYTE\$1ARRAY | STRING |   | 
| BYTEA | BINARY |  |   | 
| CHAR | BYTE\$1ARRAY | STRING |   | 
| CHAR(N) | BYTE\$1ARRAY | STRING |   | 
| ENUM | BYTE\$1ARRAY | STRING |   | 
| NAME | BYTE\$1ARRAY | STRING |   | 
| TEXT | BYTE\$1ARRAY | STRING |   | 
| TEXT SEARCH | BYTE\$1ARRAY | STRING |   | 
| VARCHAR(N) | BYTE\$1ARRAY | STRING |   | 
| XML | BYTE\$1ARRAY | STRING |   | 
| Datums- und Uhrzeit-Datentypen | 
| DATUM | BYTE\$1ARRAY | STRING |   | 
| INTERVAL | BYTE\$1ARRAY | STRING |   | 
| TIME | BYTE\$1ARRAY | STRING |  | 
| TIME WITH TIME ZONE | BYTE\$1ARRAY | STRING |  | 
| TIMESTAMP | BYTE\$1ARRAY | STRING |  | 
| TIMESTAMP WITH TIME ZONE | BYTE\$1ARRAY | STRING |  | 
| Geometrische Datentypen | 
| BOX | BYTE\$1ARRAY | STRING |   | 
| CIRCLE | BYTE\$1ARRAY | STRING |   | 
| LINE | BYTE\$1ARRAY | STRING |   | 
| LINESEGMENT | BYTE\$1ARRAY | STRING |   | 
| PATH | BYTE\$1ARRAY | STRING |   | 
| POINT | BYTE\$1ARRAY | STRING |   | 
| POLYGON | BYTE\$1ARRAY | STRING |   | 
| JSON-Datentypen | 
| JSON | BYTE\$1ARRAY | STRING |   | 
| JSONB | BYTE\$1ARRAY | STRING |   | 
| Weitere Datentypen | 
| BOOLEAN | BOOLEAN |  |   | 
| CIDR | BYTE\$1ARRAY | STRING |  Network-Datentyp | 
| COMPOSITE | BYTE\$1ARRAY | STRING |   | 
| DOMAIN | BYTE\$1ARRAY | STRING |   | 
| INET | BYTE\$1ARRAY | STRING |  Network-Datentyp | 
| MACADDR | BYTE\$1ARRAY | STRING |   | 
| OBJECT IDENTIFIER | – |  |  | 
| PG\$1LSN | BYTE\$1ARRAY | STRING |   | 
| RANGE | BYTE\$1ARRAY | STRING |   | 
| UUID | BYTE\$1ARRAY | STRING |   | 