Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Überlegungen zu DB-Cluster-Exporten
In den folgenden Abschnitten erfahren Sie mehr über die Einschränkungen, Dateibenennungskonventionen sowie Datenkonvertierung und Speicherung beim Export von DB-Cluster-Daten nach Amazon S3.
Einschränkungen
Das Exportieren von DB-Cluster-Daten nach Amazon S3 unterliegt folgenden Einschränkungen:
-
Sie können nicht mehrere Exportaufgaben für denselben DB-Cluster gleichzeitig ausführen. Dies gilt sowohl für vollständige als auch Teilexporte.
-
Pro können bis zu fünf DB-Snapshot-Exportaufgaben gleichzeitig ausgeführt werden AWS-Konto.
-
Aurora Serverless v1 DB-Cluster unterstützen keine Exporte nach S3.
-
Aurora My SQL und Aurora Postgre SQL unterstützen Exporte nach S3 nur für den bereitgestellten Engine-Modus.
-
Exporte nach S3 unterstützen keine S3-Präfixe, die einen Doppelpunkt (:) enthalten.
-
Die folgenden Zeichen im S3-Dateipfad werden während des Exports in Unterstriche (_) konvertiert:
\ ` " (space)
-
Wenn eine Datenbank, ein Schema oder eine Tabelle andere Zeichen als den folgenden enthält, wird ein teilweiser Export nicht unterstützt. Sie können jedoch den gesamten DB-Cluster exportieren.
-
Lateinische Buchstaben (A–Z)
-
Ziffern (0–9)
-
Dollar-Symbol ($)
-
Unterstrich (_)
-
-
Leerzeichen ( ) und bestimmte andere Zeichen werden in den Spaltennamen von Datenbanktabellen nicht unterstützt. Tabellen mit den folgenden Zeichen in Spaltennamen werden beim Export übersprungen:
, ; { } ( ) \n \t = (space)
-
Tabellen mit Schrägstrichen (/) im Namen werden beim Export übersprungen.
-
SQLTemporäre und nicht protokollierte Aurora Postgre-Tabellen werden beim Export übersprungen.
-
Wenn die Daten ein großes Objekt enthalten, z. B. ein BLOB oderCLOB, das fast 500 MB groß oder größer ist, schlägt der Export fehl.
-
Wenn eine Zeile in einer Tabelle ca. 2 GB groß oder noch größer ist, wird die Tabelle beim Export übersprungen.
-
Bei Teilexporten hat die
ExportOnly
Liste eine maximale Größe von 200 KB. -
Es wird dringend empfohlen, für jede Exportaufgabe einen eindeutigen Namen zu verwenden. Wenn Sie keinen eindeutigen Aufgabennamen verwenden, erhalten Sie möglicherweise die folgende Fehlermeldung:
ExportTaskAlreadyExistsFault: Beim Aufrufen der StartExportTask Operation ist ein Fehler aufgetreten (ExportTaskAlreadyExists): Die Exportaufgabe mit der ID
xxxxx
existiert bereits. -
Da einige Tabellen möglicherweise übersprungen werden, empfehlen wir, nach dem Export die Anzahl der Zeilen und Tabellen in den Daten zu überprüfen.
Benennungskonvention für Dateien
Exportierte Daten für bestimmte Tabellen werden im Format
gespeichert, wobei das Basispräfix folgendes ist:base_prefix
/files
export_identifier
/database_name
/schema_name
.table_name
/
Beispielsweise:
export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/
Ausgabedateien verwenden die folgende Benennungskonvention, wobei partition_index
ist alphanumerisch:
partition_index
/part-00000-random_uuid
.format-based_extension
Beispielsweise:
1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
Die Namenskonvention für Dateien kann geändert werden. Daher empfehlen wir beim Lesen von Zieltabellen, dass Sie alles innerhalb des Basispräfixes für die Tabelle lesen.
Datenkonvertierung und Speicherformat
Wenn Sie einen DB-Cluster in einen Amazon S3 S3-Bucket exportieren, konvertiert, exportiert und speichert Amazon Aurora Daten im Parquet-Format. Weitere Informationen finden Sie unter Datenkonvertierung beim Exportieren in einen Amazon S3-Bucket.