Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Funktionsreferenz
aws_s3.query_export_to_s3
Exportiert ein SQL Postgre-Abfrageergebnis in einen Amazon S3 S3-Bucket. Die Erweiterung aws_s3
stellt die Funktion aws_s3.query_export_to_s3
bereit.
Die zwei erforderlichen Parameter sind query
und s3_info
. Diese definieren die zu exportierende Abfrage und identifizieren den Amazon S3-Bucket, in den exportiert werden soll. Ein optionaler Parameter namens options
ermöglicht die Definition verschiedener Exportparameter. Beispiele für die Verwendung der aws_s3.query_export_to_s3
-Funktion finden Sie unter Exportieren von Abfragedaten mithilfe der Funktion aws_s3.query_export_to_s3.
Syntax
aws_s3.query_export_to_s3( query text, s3_info aws_commons._s3_uri_1, options text, kms_key text )
Eingabeparameter
- query
-
Eine erforderliche Textzeichenfolge, die eine SQL Abfrage enthält, die die SQL Postgre-Engine ausführt. Die Ergebnisse dieser Abfrage werden in einen S3-Bucket kopiert, der im
s3_info
-Parameter identifiziert wurde. - s3_info
-
Ein zusammengesetzter
aws_commons._s3_uri_1
-Typ mit den folgenden Informationen zum S3-Objekt:-
bucket
– Der Name des Amazon S3-Buckets, der die Datei enthalten soll. -
file_path
– Der Amazon S3-Dateiname und der -Pfad. -
region
— Die AWS Region, in der sich der Eimer befindet. Für eine Liste von AWS Regionsnamen und zugehörige Werte finden Sie unterRegionen, Availability Zones und Local Zones.Derzeit muss dieser Wert identisch sein AWS Region wie die der exportierenden . Die Standardeinstellung ist AWS Region der exportierenden .
Informationen zum Erstellen einer zusammengesetzten
aws_commons._s3_uri_1
-Struktur finden Sie in der aws_commons.create_s3_uri-Funktion. -
- options
-
Eine optionale Textzeichenfolge mit Argumenten für den SQL
COPY
Postgre-Befehl. Diese Argumente geben an, wie die Daten beim Exportieren kopiert werden sollen. Weitere Informationen finden Sie in der Postgre-Dokumentation. SQL COPY
Alternative Eingabeparameter
Zum Testen können Sie statt des Parameters s3_info
eine erweiterte Gruppe von Parametern verwenden. Nachfolgend sind weitere Syntaxvariationen für die Funktion aws_s3.query_export_to_s3
aufgeführt.
Statt den Parameter s3_info
zum Identifizieren einer Amazon S3-Datei zu verwenden, nutzen Sie die Kombination aus den Parametern bucket
, file_path
und region
.
aws_s3.query_export_to_s3( query text, bucket text, file_path text, region text, options text, )
- query
-
Eine erforderliche Textzeichenfolge, die eine SQL Abfrage enthält, die die SQL Postgre-Engine ausführt. Die Ergebnisse dieser Abfrage werden in einen S3-Bucket kopiert, der im
s3_info
-Parameter identifiziert wurde. - bucket
-
Eine erforderliche Textzeichenfolge mit dem Namen des Amazon S3-Buckets, der die Datei enthält.
- file_path
-
Eine erforderliche Textzeichenfolge, die den Amazon S3-Dateinamen einschließlich des Pfads der Datei enthält.
- Region
-
Eine optionale Textzeichenfolge, die Folgendes enthält AWS Region, in der sich der Bucket befindet. Für eine Liste von AWS Regionsnamen und zugehörige Werte finden Sie unterRegionen, Availability Zones und Local Zones.
Derzeit muss dieser Wert identisch sein AWS Region wie die der exportierenden . Die Standardeinstellung ist AWS Region der exportierenden .
- options
-
Eine optionale Textzeichenfolge mit Argumenten für den SQL
COPY
Postgre-Befehl. Diese Argumente geben an, wie die Daten beim Exportieren kopiert werden sollen. Weitere Informationen finden Sie in der Postgre-Dokumentation. SQL COPY
Ausgabeparameter
aws_s3.query_export_to_s3( OUT rows_uploaded bigint, OUT files_uploaded bigint, OUT bytes_uploaded bigint )
- rows_uploaded
-
Die Anzahl der Tabellenzeilen, die für die angegebene Abfrage erfolgreich in Amazon S3 hochgeladen wurden.
- files_uploaded
-
Die Anzahl der in Amazon S3 hochgeladenen Dateien. Dateien werden in Größen von ca. 6 GB erstellt. Jeder weiteren erstellten Datei wird
_part
an den Namen angehängt.XX
stellt 2, dann 3 usw. nach Bedarf dar.XX
- bytes_uploaded
-
Die Gesamtanzahl der in Amazon S3 hochgeladenen Bytes.
Beispiele
psql=> SELECT * from aws_s3.query_export_to_s3('select * from sample_table', '
amzn-s3-demo-bucket
', 'sample-filepath'); psql=> SELECT * from aws_s3.query_export_to_s3('select * from sample_table', 'amzn-s3-demo-bucket
', 'sample-filepath','us-west-2'); psql=> SELECT * from aws_s3.query_export_to_s3('select * from sample_table', 'amzn-s3-demo-bucket
', 'sample-filepath','us-west-2','format text');
aws_commons.create_s3_uri
Erstellt eine aws_commons._s3_uri_1
-Struktur für die Amazon S3-Dateiinformationen. Die Ergebnisse der Funktion aws_commons.create_s3_uri
werden im Parameter s3_info
der Funktion aws_s3.query_export_to_s3 verwendet. Ein Beispiel für die Verwendung der aws_commons.create_s3_uri
-Funktion finden Sie unter Angeben des Amazon S3-Dateipfads für den Export.
Syntax
aws_commons.create_s3_uri( bucket text, file_path text, region text )
Eingabeparameter
- bucket
-
Eine erforderliche Textzeichenfolge mit dem Namen des Amazon S3-Buckets für die Datei.
- file_path
-
Eine erforderliche Textzeichenfolge, die den Amazon S3-Dateinamen einschließlich des Pfads der Datei enthält.
- Region
-
Eine erforderliche Textzeichenfolge, die Folgendes enthält AWS Region, in der sich die Datei befindet. Für eine Liste von AWS Regionsnamen und zugehörige Werte finden Sie unterRegionen, Availability Zones und Local Zones.