

Untuk kemampuan serupa dengan Amazon Timestream LiveAnalytics, pertimbangkan Amazon Timestream untuk InfluxDB. Ini menawarkan konsumsi data yang disederhanakan dan waktu respons kueri milidetik satu digit untuk analitik waktu nyata. Pelajari lebih lanjut [di sini](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html).

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Contoh kasus penggunaan untuk UNLOAD dari Timestream untuk LiveAnalytics
<a name="export-unload-example-use-case"></a>

Asumsikan Anda memantau metrik sesi pengguna, sumber lalu lintas, dan pembelian produk situs web e-commerce Anda. Anda menggunakan Timestream LiveAnalytics untuk memperoleh wawasan real-time tentang perilaku pengguna, penjualan produk, dan melakukan analisis pemasaran pada saluran lalu lintas (pencarian organik, media sosial, lalu lintas langsung, kampanye berbayar, dan lainnya) yang mengarahkan pelanggan ke situs web. 

**Topics**
+ [Mengekspor data tanpa partisi](#export-unload-example-sample-1)
+ [Mempartisi data berdasarkan saluran](#export-unload-example-sample-2)
+ [Mempartisi data berdasarkan acara](#export-unload-example-sample-3)
+ [Mempartisi data berdasarkan saluran dan acara](#export-unload-example-sample-4)
+ [File manifes dan metadata](#export-unload-example-manifest-metadata)
+ [Menggunakan Glue crawler untuk membangun Glue Data Catalog](#export-unload-example-using-glue-crawlers)

## Mengekspor data tanpa partisi
<a name="export-unload-example-sample-1"></a>

Anda ingin mengekspor dua hari terakhir data Anda dalam format CSV.

```
UNLOAD(SELECT user_id, ip_address, event, session_id, measure_name, time, 
query, quantity, product_id, channel 
FROM sample_clickstream.sample_shopping 
WHERE time BETWEEN ago(2d) AND now())  
TO 's3://<bucket_name>/withoutpartition' 
WITH (  format='CSV',   
compression='GZIP')
```

## Mempartisi data berdasarkan saluran
<a name="export-unload-example-sample-2"></a>

Anda ingin mengekspor dua hari terakhir data dalam format CSV tetapi ingin memiliki data dari setiap saluran lalu lintas di folder terpisah. Untuk melakukan ini, Anda perlu mempartisi data menggunakan `channel` kolom seperti yang ditunjukkan pada berikut ini.

```
UNLOAD(SELECT user_id, ip_address, event, session_id, measure_name, time, 
query, quantity, product_id, channel 
FROM sample_clickstream.sample_shopping 
WHERE time BETWEEN ago(2d) AND now())  
TO 's3://<bucket_name>/partitionbychannel/' 
WITH (  
partitioned_by = ARRAY ['channel'], 
format='CSV',   
compression='GZIP')
```

## Mempartisi data berdasarkan acara
<a name="export-unload-example-sample-3"></a>

Anda ingin mengekspor dua hari terakhir data dalam format CSV tetapi ingin memiliki data untuk setiap peristiwa dalam folder terpisah. Untuk melakukan ini, Anda perlu mempartisi data menggunakan `event` kolom seperti yang ditunjukkan pada berikut ini.

```
UNLOAD(SELECT user_id, ip_address, channel, session_id, measure_name, time, 
query, quantity, product_id, event 
FROM sample_clickstream.sample_shopping 
WHERE time BETWEEN ago(2d) AND now())  
TO 's3://<bucket_name>/partitionbyevent/' 
WITH (  
partitioned_by = ARRAY ['event'], 
format='CSV',   
compression='GZIP')
```

## Mempartisi data berdasarkan saluran dan acara
<a name="export-unload-example-sample-4"></a>

Anda ingin mengekspor dua hari terakhir data dalam format CSV tetapi ingin memiliki data untuk setiap saluran dan di dalam saluran menyimpan setiap acara dalam folder terpisah. Untuk melakukan ini, Anda perlu mempartisi data menggunakan keduanya `channel` dan `event` kolom seperti yang ditunjukkan pada berikut ini.

```
UNLOAD(SELECT user_id, ip_address, session_id, measure_name, time, 
query, quantity, product_id, channel,event 
FROM sample_clickstream.sample_shopping 
WHERE time BETWEEN ago(2d) AND now())  
TO 's3://<bucket_name>/partitionbychannelevent/' 
WITH (  
partitioned_by = ARRAY ['channel','event'], 
format='CSV',   
compression='GZIP')
```

## File manifes dan metadata
<a name="export-unload-example-manifest-metadata"></a>

### File manifes
<a name="export-unload-common-questions-what-information-manifest"></a>

File manifes memberikan informasi tentang daftar file yang diekspor dengan eksekusi UNLOAD. File manifes tersedia di bucket S3 yang disediakan dengan nama file:`S3://bucket_name/<queryid>_<UUID>_manifest.json`. File manifes akan berisi url file di folder hasil, jumlah catatan dan ukuran file masing-masing, dan metadata kueri (yang merupakan total byte dan total baris yang diekspor ke S3 untuk kueri). 

```
{
  "result_files": [
    {
        "url":"s3://my_timestream_unloads/ec2_metrics/AEDAGANLHLBH4OLISD3CVOZZRWPX5GV2XCXRBKCVD554N6GWPWWXBP7LSG74V2Q_1448466917_szCL4YgVYzGXj2lS.gz", 
        "file_metadata": 
            { 
                "content_length_in_bytes": 32295, 
                "row_count": 10 
            }
    },
    {
        "url":"s3://my_timestream_unloads/ec2_metrics/AEDAGANLHLBH4OLISD3CVOZZRWPX5GV2XCXRBKCVD554N6GWPWWXBP7LSG74V2Q_1448466917_szCL4YgVYzGXj2lS.gz", 
        "file_metadata": 
            { 
                "content_length_in_bytes": 62295, 
                "row_count": 20 
            }
    },
  ],
  "query_metadata": 
    {
      "content_length_in_bytes": 94590, 
      "total_row_count": 30,
      "result_format": "CSV",
      "result_version": "Amazon Timestream version 1.0.0"  
    },
  "author": {
        "name": "Amazon Timestream", 
        "manifest_file_version": "1.0" 
  }
}
```

### Metadata
<a name="export-unload-common-questions-what-information-metadata"></a>

File metadata memberikan informasi tambahan tentang kumpulan data seperti nama kolom, jenis kolom, dan skema. <queryid><UUID>File metadata tersedia di bucket S3 yang disediakan dengan nama file: S3: //bucket\$1name/ \$1 \$1metadata.json 

Berikut ini adalah contoh dari file metadata.

```
{
    "ColumnInfo": [
        {
            "Name": "hostname",
            "Type": {
                "ScalarType": "VARCHAR"
            }
        },
        {
            "Name": "region",
            "Type": {
                "ScalarType": "VARCHAR"
            }
        },
        {
            "Name": "measure_name",
            "Type": {
                "ScalarType": "VARCHAR"
            }
        },
        {
            "Name": "cpu_utilization",
            "Type": {
                "TimeSeriesMeasureValueColumnInfo": {
                    "Type": {
                        "ScalarType": "DOUBLE"
                    }
                }
            }
        }
  ],
  "Author": {
        "Name": "Amazon Timestream", 
        "MetadataFileVersion": "1.0" 
  }
}
```

Informasi kolom yang dibagikan dalam file metadata memiliki struktur yang sama seperti yang `ColumnInfo` dikirim dalam respons Query API untuk `SELECT` kueri. 

## Menggunakan Glue crawler untuk membangun Glue Data Catalog
<a name="export-unload-example-using-glue-crawlers"></a>

1. Login ke akun Anda dengan kredensi Admin untuk validasi berikut.

1. Buat Crawler untuk Glue Database menggunakan pedoman yang disediakan [di sini](https://docs.aws.amazon.com/glue/latest/ug/tutorial-add-crawler.html). Harap dicatat bahwa folder S3 yang akan disediakan di sumber data harus berupa folder `UNLOAD` hasil seperti. `s3://my_timestream_unloads/results`

1. Jalankan crawler mengikuti panduan di [sini](https://docs.aws.amazon.com/glue/latest/ug/tutorial-add-crawler.html#tutorial-add-crawler-step2).

1. Lihat tabel Glue.
   + Pergi ke **AWS Glue** → **Tabel**.
   + Anda akan melihat tabel baru yang dibuat dengan awalan tabel yang disediakan saat membuat crawler.
   + Anda dapat melihat skema dan informasi partisi dengan mengklik tampilan detail tabel.

Berikut ini adalah AWS layanan lain dan proyek sumber terbuka yang menggunakan Katalog Data AWS Glue.
+ **Amazon Athena** — Untuk informasi selengkapnya, lihat [Memahami tabel, database, dan katalog data di](https://docs.aws.amazon.com/athena/latest/ug/understanding-tables-databases-and-the-data-catalog.html) Panduan Pengguna Amazon Athena.
+ **Amazon Redshift** Spectrum — Untuk informasi selengkapnya, [lihat Mengkueri data eksternal menggunakan Amazon Redshift Spectrum](https://docs.aws.amazon.com/redshift/latest/dg/c-using-spectrum.html) di Panduan Pengembang Database Amazon Redshift.
+ **Amazon EMR** - Untuk informasi selengkapnya, lihat [Menggunakan kebijakan berbasis sumber daya untuk akses EMR Amazon ke Katalog AWS Data Glue di Panduan Manajemen EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-iam-roles-glue.html) Amazon.
+ **AWS Klien Glue Data Catalog untuk Apache Hive metastore** — Untuk informasi lebih lanjut tentang proyek ini GitHub, lihat [Klien Katalog Data AWS Glue untuk](https://github.com/awslabs/aws-glue-data-catalog-client-for-apache-hive-metastore) Apache Hive Metastore.