Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Daten aus Amazon S3 in einen Aurora SQL Postgre-DB-Cluster importieren
Sie können Daten, die mit Amazon Simple Storage Service gespeichert wurden, in eine Tabelle auf einer Aurora SQL Postgre-DB-Cluster-Instance importieren. Dazu installieren Sie zunächst die Erweiterung Aurora Postgre SQL RDS aws_s3
. Diese Erweiterung stellt die Funktionen bereit, die Sie zum Importieren von einem Amazon S3 Bucket verwenden. Ein Bucket ist ein Amazon S3 Container für Objekte und Dateien. Die Daten können sich in einer kommagetrennten Wertdatei (CSV), einer Textdatei oder einer komprimierten Datei (Gzip) befinden. Im Folgenden erfahren Sie, wie Sie die Erweiterung installieren und Daten aus Amazon S3 in eine Tabelle importieren.
In Ihrer Datenbank muss Postgre SQL Version 10.7 oder höher ausgeführt werden, um aus Amazon S3 in Postgre importieren zu können. SQL Aurora Postgret. SQL
Wenn Sie keine Daten in Amazon S3 gespeichert haben, müssen Sie zunächst einen Bucket erstellen und die Daten speichern. Weitere Informationen finden Sie in den folgenden Themen im Benutzerhandbuch zum Amazon Simple Storage Service.
Das kontoübergreifende Importieren aus Amazon S3 wird unterstützt. Weitere Informationen finden Sie unter Gewähren kontoübergreifender Berechtigungen im Benutzerhandbuch zu Amazon Simple Storage Service.
Sie können den vom Kunden verwalteten Schlüssel für die Verschlüsselung verwenden, wenn Sie Daten aus S3 importieren. Weitere Informationen finden Sie AWS KMS im Amazon Simple Storage Service-Benutzerhandbuch unter Gespeicherte KMS Schlüssel.
Anmerkung
Das Importieren von Daten aus Amazon S3 wird nicht unterstützt für Aurora Serverless v1. Es wird unterstützt für Aurora Serverless v2.