Funktionsreferenz - Amazon Relational Database Service

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Funktionsreferenz

aws_s3.query_export_to_s3

Exportiert ein SQL Postgre-Abfrageergebnis in einen Amazon S3 S3-Bucket. Die Erweiterung aws_s3 stellt die Funktion aws_s3.query_export_to_s3 bereit.

Die zwei erforderlichen Parameter sind query und s3_info. Diese definieren die zu exportierende Abfrage und identifizieren den Amazon S3-Bucket, in den exportiert werden soll. Ein optionaler Parameter namens options ermöglicht die Definition verschiedener Exportparameter. Beispiele für die Verwendung der aws_s3.query_export_to_s3-Funktion finden Sie unter Exportieren von Abfragedaten mithilfe der Funktion aws_s3.query_export_to_s3.

Syntax

aws_s3.query_export_to_s3( query text, s3_info aws_commons._s3_uri_1, options text, kms_key text )
Eingabeparameter
query

Eine erforderliche Textzeichenfolge, die eine SQL Abfrage enthält, die die SQL Postgre-Engine ausführt. Die Ergebnisse dieser Abfrage werden in einen S3-Bucket kopiert, der im s3_info-Parameter identifiziert wurde.

s3_info

Ein zusammengesetzter aws_commons._s3_uri_1-Typ mit den folgenden Informationen zum S3-Objekt:

  • bucket – Der Name des Amazon S3-Buckets, der die Datei enthalten soll.

  • file_path – Der Amazon S3-Dateiname und der -Pfad.

  • region— Die AWS Region, in der sich der Eimer befindet. Für eine Liste von AWS Regionsnamen und zugehörige Werte finden Sie unterRegionen, Availability Zones und Local Zones.

    Derzeit muss dieser Wert identisch sein AWS Region wie die der exportierenden . Die Standardeinstellung ist AWS Region der exportierenden .

Informationen zum Erstellen einer zusammengesetzten aws_commons._s3_uri_1-Struktur finden Sie in der aws_commons.create_s3_uri-Funktion.

options

Eine optionale Textzeichenfolge mit Argumenten für den SQL COPY Postgre-Befehl. Diese Argumente geben an, wie die Daten beim Exportieren kopiert werden sollen. Weitere Informationen finden Sie in der Postgre-Dokumentation. SQL COPY

Alternative Eingabeparameter

Zum Testen können Sie statt des Parameters s3_info eine erweiterte Gruppe von Parametern verwenden. Nachfolgend sind weitere Syntaxvariationen für die Funktion aws_s3.query_export_to_s3 aufgeführt.

Statt den Parameter s3_info zum Identifizieren einer Amazon S3-Datei zu verwenden, nutzen Sie die Kombination aus den Parametern bucket, file_path und region.

aws_s3.query_export_to_s3( query text, bucket text, file_path text, region text, options text, )
query

Eine erforderliche Textzeichenfolge, die eine SQL Abfrage enthält, die die SQL Postgre-Engine ausführt. Die Ergebnisse dieser Abfrage werden in einen S3-Bucket kopiert, der im s3_info-Parameter identifiziert wurde.

bucket

Eine erforderliche Textzeichenfolge mit dem Namen des Amazon S3-Buckets, der die Datei enthält.

file_path

Eine erforderliche Textzeichenfolge, die den Amazon S3-Dateinamen einschließlich des Pfads der Datei enthält.

Region

Eine optionale Textzeichenfolge, die Folgendes enthält AWS Region, in der sich der Bucket befindet. Für eine Liste von AWS Regionsnamen und zugehörige Werte finden Sie unterRegionen, Availability Zones und Local Zones.

Derzeit muss dieser Wert identisch sein AWS Region wie die der exportierenden . Die Standardeinstellung ist AWS Region der exportierenden .

options

Eine optionale Textzeichenfolge mit Argumenten für den SQL COPY Postgre-Befehl. Diese Argumente geben an, wie die Daten beim Exportieren kopiert werden sollen. Weitere Informationen finden Sie in der Postgre-Dokumentation. SQL COPY

Ausgabeparameter

aws_s3.query_export_to_s3( OUT rows_uploaded bigint, OUT files_uploaded bigint, OUT bytes_uploaded bigint )
rows_uploaded

Die Anzahl der Tabellenzeilen, die für die angegebene Abfrage erfolgreich in Amazon S3 hochgeladen wurden.

files_uploaded

Die Anzahl der in Amazon S3 hochgeladenen Dateien. Dateien werden in Größen von ca. 6 GB erstellt. Jeder weiteren erstellten Datei wird _partXX an den Namen angehängt. XX stellt 2, dann 3 usw. nach Bedarf dar.

bytes_uploaded

Die Gesamtanzahl der in Amazon S3 hochgeladenen Bytes.

Beispiele

psql=> SELECT * from aws_s3.query_export_to_s3('select * from sample_table', 'amzn-s3-demo-bucket', 'sample-filepath'); psql=> SELECT * from aws_s3.query_export_to_s3('select * from sample_table', 'amzn-s3-demo-bucket', 'sample-filepath','us-west-2'); psql=> SELECT * from aws_s3.query_export_to_s3('select * from sample_table', 'amzn-s3-demo-bucket', 'sample-filepath','us-west-2','format text');

aws_commons.create_s3_uri

Erstellt eine aws_commons._s3_uri_1-Struktur für die Amazon S3-Dateiinformationen. Die Ergebnisse der Funktion aws_commons.create_s3_uri werden im Parameter s3_info der Funktion aws_s3.query_export_to_s3 verwendet. Ein Beispiel für die Verwendung der aws_commons.create_s3_uri-Funktion finden Sie unter Angeben des Amazon S3-Dateipfads für den Export.

Syntax

aws_commons.create_s3_uri( bucket text, file_path text, region text )
Eingabeparameter
bucket

Eine erforderliche Textzeichenfolge mit dem Namen des Amazon S3-Buckets für die Datei.

file_path

Eine erforderliche Textzeichenfolge, die den Amazon S3-Dateinamen einschließlich des Pfads der Datei enthält.

Region

Eine erforderliche Textzeichenfolge, die Folgendes enthält AWS Region, in der sich die Datei befindet. Für eine Liste von AWS Regionsnamen und zugehörige Werte finden Sie unterRegionen, Availability Zones und Local Zones.