

Für ähnliche Funktionen wie Amazon Timestream für sollten Sie Amazon Timestream for LiveAnalytics InfluxDB in Betracht ziehen. Es bietet eine vereinfachte Datenaufnahme und Antwortzeiten im einstelligen Millisekundenbereich für Analysen in Echtzeit. [Erfahren](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html) Sie hier mehr.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# UNLOAD
<a name="supported-sql-constructs.UNLOAD"></a>

Timestream for LiveAnalytics unterstützt einen `UNLOAD` Befehl als Erweiterung seiner SQL-Unterstützung. Datentypen, die von unterstützt werden, `UNLOAD` werden unter beschrieben[Unterstützte Datentypen](supported-data-types.md). Die `unknown` Typen `time` und gelten nicht für`UNLOAD`.

```
UNLOAD (SELECT statement)
 TO 's3://bucket-name/folder'
 WITH ( option = expression [, ...] )
```

wo Option ist

```
{ partitioned_by = ARRAY[ col_name[,…] ] 
 | format = [ '{ CSV | PARQUET }' ] 
 | compression = [ '{ GZIP | NONE }' ]
 | encryption = [ '{ SSE_KMS | SSE_S3 }' ]
 | kms_key = '<string>'
 | field_delimiter ='<character>'
 | escaped_by = '<character>'
 | include_header = ['{true, false}']
 | max_file_size = '<value>'
}
```

SELECT-Anweisung  
Die Abfrageanweisung, die verwendet wird, um Daten aus einem oder mehreren Timestreams für LiveAnalytics Tabellen auszuwählen und abzurufen.   

```
(SELECT column 1, column 2, column 3 from database.table
      where measure_name = "ABC" and timestamp between ago (1d) and now() )
```

TO-Klausel  

```
TO 's3://bucket-name/folder'
```
oder  

```
TO 's3://access-point-alias/folder'
```
Die `TO` Klausel in der `UNLOAD` Anweisung gibt das Ziel für die Ausgabe der Abfrageergebnisse an. Sie müssen den vollständigen Pfad angeben, einschließlich entweder des Amazon S3-Bucket-Namens oder Amazon S3 access-point-alias mit dem Speicherort des Ordners auf Amazon S3, in den Timestream for die LiveAnalytics Ausgabedateiobjekte schreibt. Der S3-Bucket sollte demselben Konto gehören und sich in derselben Region befinden. Zusätzlich zum Abfrageergebnissatz LiveAnalytics schreibt Timestream for die Manifest- und Metadatendateien in den angegebenen Zielordner. 

PARTITIONED\$1BY-Klausel  

```
partitioned_by = ARRAY [col_name[,…] , (default: none)
```
Die `partitioned_by` Klausel wird in Abfragen verwendet, um Daten auf granularer Ebene zu gruppieren und zu analysieren. Wenn Sie Ihre Abfrageergebnisse in den S3-Bucket exportieren, können Sie wählen, ob Sie die Daten anhand einer oder mehrerer Spalten in der Auswahlabfrage partitionieren möchten. Bei der Partitionierung der Daten werden die exportierten Daten basierend auf der Partitionsspalte in Teilmengen unterteilt, und jede Teilmenge wird in einem separaten Ordner gespeichert. Innerhalb des Ergebnisordners, der Ihre exportierten Daten enthält, wird automatisch ein Unterordner erstellt`folder/results/partition column = partition value/`. Beachten Sie jedoch, dass partitionierte Spalten nicht in der Ausgabedatei enthalten sind.   
`partitioned_by`ist keine obligatorische Klausel in der Syntax. Wenn Sie die Daten ohne Partitionierung exportieren möchten, können Sie die Klausel in der Syntax ausschließen.   

**Example**  
Angenommen, Sie überwachen die Clickstream-Daten Ihrer Website und haben 5 Verkehrskanäle`direct`, nämlich, `Social Media` `Organic Search``Other`, und. `Referral` Beim Exportieren der Daten können Sie wählen, ob Sie die Daten mithilfe der Spalte `Channel` partitionieren möchten. In Ihrem Datenordner befinden sich fünf Ordner mit jeweils ihrem jeweiligen Kanalnamen. `s3://bucketname/results/channel=Social Media/.` In diesem Ordner finden Sie beispielsweise die Daten aller Kunden, die über den `Social Media` Kanal auf Ihre Website gelangt sind. `s3://bucketname/results` In ähnlicher Weise werden Sie andere Ordner für die verbleibenden Kanäle haben.
Exportierte Daten, partitioniert nach Kanalspalten  

![\[Folder structure showing channels: Direct, Organic search, Other, Referral, and Social media.\]](http://docs.aws.amazon.com/de_de/timestream/latest/developerguide/images/unload-results.png)


FORMAT  

```
format = [ '{ CSV | PARQUET }' , default: CSV
```
Die Schlüsselwörter zur Angabe des Formats der Abfrageergebnisse, die in Ihren S3-Bucket geschrieben werden. Sie können die Daten entweder als kommagetrennten Wert (CSV) mit einem Komma (,) als Standardtrennzeichen oder im Apache Parquet-Format, einem effizienten offenen spaltenbasierten Speicherformat für Analysen, exportieren. 

KOMPRESSION  

```
compression = [ '{ GZIP | NONE }' ], default: GZIP
```
Sie können die exportierten Daten mit dem Komprimierungsalgorithmus GZIP komprimieren oder sie dekomprimieren lassen, indem Sie die `NONE` Option angeben.

ENCRYPTION  

```
encryption = [ '{ SSE_KMS | SSE_S3 }' ], default: SSE_S3
```
Die Ausgabedateien auf Amazon S3 werden mit der von Ihnen ausgewählten Verschlüsselungsoption verschlüsselt. Zusätzlich zu Ihren Daten werden auch die Manifest- und Metadatendateien auf der Grundlage der von Ihnen ausgewählten Verschlüsselungsoption verschlüsselt. Wir unterstützen derzeit die SSE\$1S3- und SSE\$1KMS-Verschlüsselung. SSE\$1S3 ist eine serverseitige Verschlüsselung, bei der Amazon S3 die Daten mithilfe der 256-Bit-AES-Verschlüsselung (Advanced Encryption Standard) verschlüsselt. SSE\$1KMS ist eine serverseitige Verschlüsselung zur Verschlüsselung von Daten mit vom Kunden verwalteten Schlüsseln.

KMS\$1KEY  

```
kms_key = '<string>'
```
KMS Key ist ein kundendefinierter Schlüssel zum Verschlüsseln exportierter Abfrageergebnisse. KMS Key wird sicher vom AWS Key Management Service (AWS KMS) verwaltet und zur Verschlüsselung von Datendateien auf Amazon S3 verwendet.

FIELD\$1DELIMITER  

```
field_delimiter ='<character>' , default: (,)
```
Beim Exportieren der Daten im CSV-Format gibt dieses Feld ein einzelnes ASCII-Zeichen an, das zur Trennung von Feldern in der Ausgabedatei verwendet wird, z. B. ein senkrechter Strich (\$1), ein Komma (,) oder ein Tabulatorzeichen (/t). Das Standardtrennzeichen für CSV-Dateien ist ein Kommazeichen. Wenn ein Wert in Ihren Daten das gewählte Trennzeichen enthält, wird das Trennzeichen mit einem Anführungszeichen in Anführungszeichen gesetzt. Wenn der Wert in Ihren Daten beispielsweise Folgendes enthält`Time,stream`, wird dieser Wert wie in den exportierten Daten `"Time,stream"` in Anführungszeichen gesetzt. Das von Timestream für verwendete Anführungszeichen LiveAnalytics sind doppelte Anführungszeichen („).  
Vermeiden Sie es, das Wagenrücklaufzeichen (ASCII 13, Hex`0D`, Text '\$1 r') oder das Zeilenumbruchzeichen (ASCII 10, HEX 0A, Text '\$1n') anzugeben, `FIELD_DELIMITER` wenn Sie Header in die CSV aufnehmen möchten, da dies viele Parser daran hindert, die Header in der resultierenden CSV-Ausgabe korrekt zu analysieren.

ESCAPED\$1BY  

```
escaped_by = '<character>', default: (\)
```
Beim Exportieren der Daten im CSV-Format gibt dieses Feld das Zeichen an, das in der in den S3-Bucket geschriebenen Datendatei als Escape-Zeichen behandelt werden soll. Die Flucht erfolgt in den folgenden Szenarien:  

1. Wenn der Wert selbst das Anführungszeichen („) enthält, wird er mit einem Escape-Zeichen maskiert. Wenn der Wert beispielsweise lautet`Time"stream`, wobei (\$1) das konfigurierte Escape-Zeichen ist, dann wird er als maskiert`Time\"stream`. 

1. Wenn der Wert das konfigurierte Escape-Zeichen enthält, wird es maskiert. Wenn der Wert beispielsweise ist`Time\stream`, wird er als maskiert`Time\\stream`. 
Wenn die exportierte Ausgabe komplexe Datentypen wie Arrays, Zeilen oder Zeitreihen enthält, wird sie als JSON-Zeichenfolge serialisiert. Im Folgenden sehen Sie ein Beispiel.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/timestream/latest/developerguide/supported-sql-constructs.UNLOAD.html)

INCLUDE\$1HEADER  

```
include_header = 'true' , default: 'false'
```
Wenn Sie die Daten im CSV-Format exportieren, können Sie in diesem Feld Spaltennamen als erste Zeile der exportierten CSV-Datendateien angeben.  
Die akzeptierten Werte sind „wahr“ und „falsch“ und der Standardwert ist „falsch“. Optionen zur Texttransformation, wie z. B. `escaped_by` und, `field_delimiter` gelten auch für Überschriften.  
Beim Einbeziehen von Kopfzeilen ist es wichtig, dass Sie kein Wagenrücklaufzeichen (ASCII 13, Hex 0D, Text '\$1 r') oder ein Zeilenumbruchzeichen (ASCII 10, Hex 0A, Text '\$1n') als 'auswählen, da dies viele Parser daran hindert`FIELD_DELIMITER`, die Header in der resultierenden CSV-Ausgabe korrekt zu analysieren.

MAX\$1FILE\$1SIZE  

```
max_file_size = 'X[MB|GB]' , default: '78GB'
```
Dieses Feld gibt die maximale Größe der Dateien an, die die `UNLOAD` Anweisung in Amazon S3 erstellt. Die `UNLOAD` Anweisung kann mehrere Dateien erstellen, aber die maximale Größe jeder in Amazon S3 geschriebenen Datei entspricht ungefähr der in diesem Feld angegebenen Größe.  
Der Wert des Felds muss zwischen 16 MB und einschließlich 78 GB liegen. Sie können ihn als Ganzzahl wie `12GB` oder in Dezimalzahlen wie `0.5GB` oder angeben. `24.7MB` Der Standardwert ist 78 GB.  
Die tatsächliche Dateigröße wird ungefähr angegeben, wenn die Datei geschrieben wird, sodass die tatsächliche Maximalgröße möglicherweise nicht exakt der von Ihnen angegebenen Zahl entspricht.