Übersicht über den Import von Daten aus Amazon S3-Daten - Amazon Relational Database Service

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Übersicht über den Import von Daten aus Amazon S3-Daten

Um S3-Daten in Amazon zu importieren RDS

Sammeln Sie zunächst die Details, die Sie der Funktion zur Verfügung stellen müssen. Dazu gehören der Name der Tabelle auf der Ihre RDS für SQL Postgre-DB-Instance sowie der Bucket-Name, der Dateipfad, der Dateityp und AWS-Region wo die Amazon S3 S3-Daten gespeichert werden. Weitere Informationen finden Sie unter Kopieren von Objekten im Benutzerhandbuch zu Amazon Simple Storage Service.

Anmerkung

Der mehrteilige Datenimport aus Amazon S3 wird derzeit nicht unterstützt.

  1. Ermittelt den Namen der Tabelle, in die die aws_s3.table_import_from_s3-Funktion die Daten importieren soll. Mit dem folgenden Befehl wird beispielsweise eine Tabelle t1 erstellt, die in späteren Schritten verwendet werden kann.

    postgres=> CREATE TABLE t1 (col1 varchar(80), col2 varchar(80), col3 varchar(80));
  2. Rufen Sie die Details zum Amazon-S3-Bucket und die zu importierenden Daten ab. Öffnen Sie dazu die Amazon S3 S3-Konsole unter https://console.aws.amazon.com/s3/und wählen Sie Buckets. Suchen Sie den Bucket, der Ihre Daten enthält, in der Liste. Wählen Sie den Bucket aus, öffnen Sie die Seite Objektübersicht und wählen Sie dann Properties (Eigenschaften).

    Notieren Sie sich den Namen des Buckets, den Pfad und den AWS-Region, und den Dateityp. Sie benötigen später den Amazon-Ressourcennamen (ARN), um den Zugriff auf Amazon S3 über eine IAM Rolle einzurichten. Weitere Informationen finden Sie unter Einrichten des Zugriffs auf einen Amazon S3-Bucket. In der folgenden Abbildung sehen Sie ein Beispiel.

    Bild eines Dateiobjekts in einem Amazon-S3-Bucket.
  3. Sie können den Pfad zu den Daten im Amazon S3 S3-Bucket überprüfen, indem Sie den AWS CLI Befehlaws s3 cp. Wenn die Informationen korrekt sind, lädt dieser Befehl eine Kopie der Amazon S3-Datei herunter.

    aws s3 cp s3://amzn-s3-demo-bucket/sample_file_path ./
  4. Richten Sie Berechtigungen auf Ihrem für die SQL Postgre-DB-Instance ein, um den Zugriff auf die Datei im Amazon S3 S3-Bucket zu ermöglichen. Dazu verwenden Sie entweder ein AWS Identity and Access Management (IAM) Rollen- oder Sicherheitsanmeldedaten. Weitere Informationen finden Sie unter Einrichten des Zugriffs auf einen Amazon S3-Bucket.

  5. Geben Sie den Pfad und andere gesammelte Amazon S3 S3-Objektdetails (siehe Schritt 2) an die create_s3_uri Funktion weiter, um ein Amazon S3 URI S3-Objekt zu erstellen. Weitere Informationen zu dieser Funktion finden Sie unter aws_commons.create_s3_uri. Es folgt ein Beispiel für die Erstellung dieses Objekts während einer psql-Sitzung.

    postgres=> SELECT aws_commons.create_s3_uri( 'docs-lab-store-for-rpg', 'versions_and_jdks_listing.csv', 'us-west-1' ) AS s3_uri \gset

    Im nächsten Schritt übergeben Sie dieses Objekt (aws_commons._s3_uri_1) an die aws_s3.table_import_from_s3-Funktion, um die Daten in die Tabelle zu importieren.

  6. Rufen Sie die aws_s3.table_import_from_s3-Funktion zum Importieren der Daten aus Amazon S3 in Ihre Tabelle auf. Referenz-Informationen finden Sie unter aws_s3.table_import_from_s3. Beispiele finden Sie unter Daten von Amazon S3 in Ihren importieren.