

Untuk kemampuan serupa dengan Amazon Timestream LiveAnalytics, pertimbangkan Amazon Timestream untuk InfluxDB. Ini menawarkan konsumsi data yang disederhanakan dan waktu respons kueri milidetik satu digit untuk analitik waktu nyata. Pelajari lebih lanjut [di sini](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html).

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Menggunakan pemuatan batch di Timestream untuk LiveAnalytics
<a name="batch-load"></a>

Dengan *pemuatan batch* untuk Amazon Timestream LiveAnalytics, Anda dapat menelan file CSV yang disimpan di Amazon S3 ke Timestream dalam batch. Dengan fungsi baru ini, Anda dapat memiliki data Anda di Timestream LiveAnalytics tanpa harus bergantung pada alat lain atau menulis kode khusus. Anda dapat menggunakan pemuatan batch untuk mengisi ulang data dengan waktu tunggu yang fleksibel, seperti data yang tidak segera diperlukan untuk kueri atau analisis. 

Anda dapat membuat tugas pemuatan batch dengan menggunakan Konsol Manajemen AWS, AWS CLI, dan file AWS SDKs. Lihat informasi selengkapnya di [Menggunakan pemuatan batch dengan konsol](batch-load-using-console.md), [Menggunakan beban batch dengan AWS CLI](batch-load-using-cli.md), dan [Menggunakan beban batch dengan AWS SDKs](batch-load-using-sdk.md).

Selain pemuatan batch, Anda dapat menulis beberapa catatan secara bersamaan dengan operasi WriteRecords API. Untuk panduan tentang mana yang harus digunakan, lihat[Memilih antara operasi WriteRecords API dan pemuatan batch](writes.writes-or-batch-load.md).

**Topics**
+ [Konsep pemuatan Batch di Timestream](batch-load-concepts.md)
+ [Prasyarat pemuatan Batch](batch-load-prerequisites.md)
+ [Praktik terbaik pemuatan Batch](batch-load-best-practices.md)
+ [Mempersiapkan file data pemuatan batch](batch-load-preparing-data-file.md)
+ [Pemetaan model data untuk pemuatan batch](batch-load-data-model-mappings.md)
+ [Menggunakan pemuatan batch dengan konsol](batch-load-using-console.md)
+ [Menggunakan beban batch dengan AWS CLI](batch-load-using-cli.md)
+ [Menggunakan beban batch dengan AWS SDKs](batch-load-using-sdk.md)
+ [Menggunakan laporan kesalahan pemuatan batch](batch-load-using-error-reports.md)

# Konsep pemuatan Batch di Timestream
<a name="batch-load-concepts"></a>

Tinjau konsep berikut untuk lebih memahami fungsionalitas pemuatan batch. 

**Tugas pemuatan Batch** — Tugas yang menentukan data sumber dan tujuan Anda di Amazon Timestream. Anda menentukan konfigurasi tambahan seperti model data saat Anda membuat tugas pemuatan batch. Anda dapat membuat tugas pemuatan batch melalui Konsol Manajemen AWS, AWS CLI, dan file AWS SDKs. 

**Impor tujuan** - Database tujuan dan tabel di Timestream. Untuk informasi tentang membuat database dan tabel, lihat [Buat database](console_timestream.md#console_timestream.db.using-console) dan[Membuat tabel](console_timestream.md#console_timestream.table.using-console).

**Sumber data** — File CSV sumber yang disimpan dalam bucket S3. Untuk informasi tentang menyiapkan file data, lihat[Mempersiapkan file data pemuatan batch](batch-load-preparing-data-file.md). Untuk informasi tentang harga S3, lihat harga [Amazon S3](https://aws.amazon.com/s3/pricing/).

**Laporan kesalahan pemuatan Batch** — Laporan yang menyimpan informasi tentang kesalahan tugas pemuatan batch. Anda menentukan lokasi S3 untuk laporan kesalahan pemuatan batch sebagai bagian dari tugas pemuatan batch. Untuk informasi tentang informasi dalam laporan, lihat[Menggunakan laporan kesalahan pemuatan batch](batch-load-using-error-reports.md).

**Pemetaan model data** — Pemetaan beban batch untuk waktu, dimensi, dan ukuran yang berasal dari sumber data di lokasi S3 ke Timestream target untuk tabel. LiveAnalytics Untuk informasi selengkapnya, lihat [Pemetaan model data untuk pemuatan batch](batch-load-data-model-mappings.md).

# Prasyarat pemuatan Batch
<a name="batch-load-prerequisites"></a>

Ini adalah daftar prasyarat untuk menggunakan pemuatan batch. Untuk praktik terbaik, lihat [Praktik terbaik pemuatan Batch](batch-load-best-practices.md).
+ Data sumber pemuatan batch disimpan di Amazon S3 dalam format CSV dengan header.
+ Untuk setiap bucket sumber Amazon S3, Anda harus memiliki izin berikut dalam kebijakan terlampir:

  ```
  "s3:GetObject",
  "s3:GetBucketAcl"
  "s3:ListBucket"
  ```

  Demikian pula, untuk setiap bucket keluaran Amazon S3 tempat laporan ditulis, Anda harus memiliki izin berikut dalam kebijakan terlampir:

  ```
  "s3:PutObject",
  "s3:GetBucketAcl"
  ```

  Contoh:

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Action": [
                  "s3:GetObject",
                  "s3:GetBucketAcl",
                  "s3:ListBucket"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-source-bucket1\u201d",
                  "arn:aws:s3:::amzn-s3-demo-source-bucket2\u201d"
              ],
              "Effect": "Allow"
          },
          {
              "Action": [
                  "s3:PutObject",
                  "s3:GetBucketAcl"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket\u201d"
              ],
              "Effect": "Allow"
          }
      ]
  }
  ```

------
+ Timestream untuk LiveAnalytics mem-parsing CSV dengan memetakan informasi yang disediakan dalam model data ke header CSV. Data harus memiliki kolom yang mewakili stempel waktu, setidaknya satu kolom dimensi, dan setidaknya satu kolom ukuran.
+ Bucket S3 yang digunakan dengan beban batch harus berada di wilayah yang sama dan dari akun yang sama dengan Timestream untuk LiveAnalytics tabel yang digunakan dalam pemuatan batch.
+ `timestamp`Kolom harus berupa tipe data panjang yang mewakili waktu sejak zaman Unix. Misalnya, stempel waktu `2021-03-25T08:45:21Z` akan direpresentasikan sebagai. `1616661921` Timestream mendukung detik, milidetik, mikrodetik, dan nanodetik untuk presisi stempel waktu. Saat menggunakan bahasa kueri, Anda dapat mengonversi antara format dengan fungsi seperti`to_unixtime`. Untuk informasi selengkapnya, lihat [Fungsi tanggal/waktu](date-time-functions.md).
+ Timestream mendukung tipe data string untuk nilai dimensi. Ini mendukung tipe data panjang, ganda, string, dan boolean untuk mengukur kolom.

Untuk batas pemuatan batch dan kuota, lihat[Beban batch](ts-limits.md#limits.batch-load).

# Praktik terbaik pemuatan Batch
<a name="batch-load-best-practices"></a>

Batch load bekerja paling baik (throughput tinggi) saat mengikuti kondisi dan rekomendasi berikut:

1. File CSV yang dikirimkan untuk konsumsi berukuran kecil, khususnya dengan ukuran file 100 MB—1 GB, untuk meningkatkan paralelisme dan kecepatan konsumsi.

1. Hindari memasukkan data secara bersamaan ke dalam tabel yang sama (misalnya menggunakan operasi WriteRecords API, atau kueri terjadwal) saat pemuatan batch sedang berlangsung. Ini mungkin menyebabkan throttle, dan tugas pemuatan batch akan gagal.

1. Jangan menambah, memodifikasi, atau menghapus file dari bucket S3 yang digunakan dalam pemuatan batch saat tugas pemuatan batch sedang berjalan.

1. Jangan menghapus atau mencabut izin dari tabel atau sumber, atau laporkan bucket S3 yang memiliki tugas pemuatan batch terjadwal atau sedang berlangsung.

1. Saat menelan data dengan serangkaian nilai dimensi kardinalitas tinggi, ikuti panduan di. [Rekomendasi untuk mempartisi catatan multi-ukuran](data-modeling.md#data-modeling-multi-measure-partitioning)

1. Pastikan Anda menguji data untuk kebenaran dengan mengirimkan file kecil. Anda akan dikenakan biaya untuk setiap data yang dikirimkan ke pemuatan batch terlepas dari kebenarannya. Untuk informasi selengkapnya tentang harga, lihat harga [Amazon Timestream](https://aws.amazon.com/timestream/pricing/).

1. Jangan melanjutkan tugas pemuatan batch kecuali `ActiveMagneticStorePartitions` di bawah 250. Pekerjaan itu mungkin terhambat dan gagal. Mengirimkan beberapa pekerjaan pada saat yang sama untuk database yang sama akan mengurangi jumlahnya.

Berikut ini adalah praktik terbaik konsol:

1. Gunakan [pembuat](batch-load-using-console.md#batch-load-using-visual-builder) hanya untuk pemodelan data sederhana yang hanya menggunakan satu nama ukuran untuk catatan multi-ukuran.

1. Untuk pemodelan data yang lebih kompleks, gunakan JSON. Misalnya, gunakan JSON saat Anda menggunakan beberapa nama ukuran saat menggunakan catatan multi-ukuran. 

Untuk Timestream tambahan untuk praktik LiveAnalytics terbaik, lihat[Praktik terbaik](best-practices.md).

# Mempersiapkan file data pemuatan batch
<a name="batch-load-preparing-data-file"></a>

File data sumber memiliki nilai yang dipisahkan pembatas. Istilah yang lebih spesifik, nilai dipisahkan koma (CSV) digunakan secara umum. Pemisah kolom yang valid termasuk koma dan pipa. Catatan dipisahkan oleh baris baru. File harus disimpan di Amazon S3. Saat Anda membuat tugas pemuatan batch baru, lokasi data sumber ditentukan oleh ARN untuk file tersebut. Sebuah file berisi header. Satu kolom mewakili stempel waktu. Setidaknya satu kolom lain mewakili ukuran.

Bucket S3 yang digunakan dengan beban batch harus berada di Wilayah yang sama dengan Timestream untuk LiveAnalytics tabel yang digunakan dalam pemuatan batch. Jangan menambah atau menghapus file dari bucket S3 yang digunakan dalam pemuatan batch setelah tugas pemuatan batch dikirimkan. Untuk informasi tentang bekerja dengan bucket S3, lihat [Memulai Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html).

**catatan**  
File CSV yang dihasilkan oleh beberapa aplikasi seperti Excel mungkin berisi tanda urutan byte (BOM) yang bertentangan dengan pengkodean yang diharapkan. Timestream untuk tugas pemuatan LiveAnalytics batch yang mereferensikan file CSV dengan BOM menimbulkan kesalahan saat diproses secara terprogram. Untuk menghindari hal ini, Anda dapat menghapus BOM, yang merupakan karakter yang tidak terlihat.  
Misalnya, Anda dapat menyimpan file dari aplikasi seperti Notepad \$1\$1 yang memungkinkan Anda menentukan pengkodean baru. Anda juga dapat menggunakan opsi terprogram yang membaca baris pertama, menghapus karakter dari baris, dan menulis nilai baru di atas baris pertama dalam file.  
Saat menyimpan dari Excel, ada beberapa opsi CSV. Menyimpan dengan opsi CSV yang berbeda dapat mencegah masalah yang dijelaskan. Tetapi Anda harus memeriksa hasilnya karena perubahan pengkodean dapat memengaruhi beberapa karakter.

## Parameter format CSV
<a name="batch-load-data-file-options"></a>

Anda menggunakan karakter escape ketika Anda mewakili nilai yang dinyatakan dicadangkan oleh parameter format. Misalnya, jika karakter kutipan adalah kutipan ganda, untuk mewakili kutipan ganda dalam data, tempatkan karakter escape sebelum kutipan ganda.

Untuk informasi tentang kapan harus menentukan ini saat membuat tugas pemuatan batch, lihat[Buat tugas pemuatan batch](batch-load-using-console.md#console_timestream.create-batch-load.using-console).


| Parameter | Opsi | 
| --- | --- | 
| Pemisah kolom | (Koma (',') \$1 Pipa ('\$1') \$1 Titik koma (';') \$1 Tab ('/t') \$1 Ruang kosong ('')) | 
| Karakter melarikan diri | none | 
| Karakter kutipan | Konsol: (Kutipan ganda (“) \$1 Kutipan tunggal (')) | 
| Nilai nol | Ruang kosong ('') | 
| Potong ruang putih | Konsol: (Tidak \$1 Ya) | 

# Pemetaan model data untuk pemuatan batch
<a name="batch-load-data-model-mappings"></a>

Berikut ini membahas skema untuk pemetaan model data dan memberi dan contoh.

## Skema pemetaan model data
<a name="batch-load-data-model-mappings-schema"></a>

Sintaks `CreateBatchLoadTask` permintaan dan `BatchLoadTaskDescription` objek dikembalikan oleh panggilan untuk `DescribeBatchLoadTask` menyertakan `DataModelConfiguration` objek yang menyertakan `DataModel` untuk pemuatan batch. `DataModel`Mendefinisikan pemetaan dari data sumber yang disimpan dalam format CSV di lokasi S3 ke Timestream target untuk database dan tabel. LiveAnalytics 

`TimeColumn`Bidang menunjukkan lokasi data sumber untuk nilai yang akan dipetakan ke `time` kolom tabel tujuan di Timestream untuk. LiveAnalytics `TimeUnit`Menentukan unit untuk`TimeColumn`, dan dapat menjadi salah satu dari`MILLISECONDS`,, `SECONDS``MICROSECONDS`, atau`NANOSECONDS`. Ada juga pemetaan untuk dimensi dan ukuran. Pemetaan dimensi terdiri dari kolom sumber dan bidang target. 

Untuk informasi selengkapnya, lihat [DimensionMapping](https://docs.aws.amazon.com/timestream/latest/developerguide/API_DimensionMapping). Pemetaan untuk tindakan memiliki dua opsi, `MixedMeasureMappings` dan. `MultiMeasureMappings`

Untuk meringkas, a `DataModel` berisi pemetaan dari sumber data di lokasi S3 ke Timestream target untuk tabel berikut ini. LiveAnalytics 
+ Waktu
+ Dimensi
+ Tindakan

Jika memungkinkan, kami menyarankan Anda memetakan data pengukuran ke catatan multi-ukuran di Timestream untuk. LiveAnalytics Untuk informasi tentang manfaat catatan multi-ukuran, lihat[Catatan multi-ukuran](writes.md#writes.writing-data-multi-measure). 

Jika beberapa ukuran dalam data sumber disimpan dalam satu baris, Anda dapat memetakan beberapa ukuran tersebut ke catatan multi-ukuran di Timestream untuk LiveAnalytics digunakan. `MultiMeasureMappings` Jika ada nilai yang harus dipetakan ke catatan ukuran tunggal, Anda dapat menggunakannya`MixedMeasureMappings`. 

`MixedMeasureMappings`dan `MultiMeasureMappings` keduanya termasuk`MultiMeasureAttributeMappings`. Catatan multi-ukuran didukung terlepas dari apakah catatan ukuran tunggal diperlukan.

Jika hanya catatan target multi-ukuran yang diperlukan di Timestream for LiveAnalytics, Anda dapat menentukan pemetaan ukuran dalam struktur berikut.

```
CreateBatchLoadTask
    MeasureNameColumn
    MultiMeasureMappings
        TargetMultiMeasureName
        MultiMeasureAttributeMappings array
```

**catatan**  
Kami merekomendasikan penggunaan `MultiMeasureMappings` bila memungkinkan.

Jika catatan target ukuran tunggal diperlukan di Timestream for LiveAnalytics, Anda dapat menentukan pemetaan ukuran dalam struktur berikut.

```
CreateBatchLoadTask
    MeasureNameColumn
    MixedMeasureMappings array
        MixedMeasureMapping
            MeasureName
            MeasureValueType
            SourceColumn
            TargetMeasureName
            MultiMeasureAttributeMappings array
```

Saat Anda menggunakan`MultiMeasureMappings`, `MultiMeasureAttributeMappings` array selalu diperlukan. Bila Anda menggunakan `MixedMeasureMappings` array, jika `MeasureValueType` adalah `MULTI` untuk diberikan`MixedMeasureMapping`, `MultiMeasureAttributeMappings` diperlukan untuk itu`MixedMeasureMapping`. Jika tidak, `MeasureValueType` tunjukkan jenis ukuran untuk catatan ukuran tunggal.

Either way, ada array yang `MultiMeasureAttributeMapping` tersedia. Anda menentukan pemetaan ke catatan multi-ukuran di masing-masing `MultiMeasureAttributeMapping` sebagai berikut:

`SourceColumn`  
Kolom dalam data sumber yang terletak di Amazon S3.

`TargetMultiMeasureAttributeName`  
Nama nama multi-ukuran target di tabel tujuan. Input ini `MeasureNameColumn` diperlukan ketika tidak disediakan. Jika `MeasureNameColumn` disediakan, nilai dari kolom itu digunakan sebagai nama multi-ukuran.

`MeasureValueType`  
Salah satu`DOUBLE`, `BIGINT``BOOLEAN`,`VARCHAR`, atau`TIMESTAMP`.

## Pemetaan model data dengan contoh `MultiMeasureMappings`
<a name="batch-load-data-model-mappings-example-multi"></a>

Contoh ini menunjukkan pemetaan ke catatan multi-ukuran, pendekatan yang disukai, yang menyimpan setiap nilai ukuran dalam kolom khusus. Anda dapat mengunduh sampel CSV di [sampel CSV](samples/batch-load-sample-file.csv.zip). Sampel memiliki judul berikut untuk dipetakan ke kolom target dalam Timestream untuk LiveAnalytics tabel.
+ `time`
+ `measure_name`
+ `region`
+ `location`
+ `hostname`
+ `memory_utilization`
+ `cpu_utilization`

Identifikasi `time` dan `measure_name` kolom dalam file CSV. Dalam hal ini peta ini langsung ke Timestream untuk kolom LiveAnalytics tabel dengan nama yang sama.
+ `time`peta ke `time`
+ `measure_name`peta ke `measure_name` (atau nilai yang Anda pilih)

Saat menggunakan API, Anda menentukan `time` di `TimeColumn` bidang dan nilai satuan waktu yang didukung seperti `MILLISECONDS` di `TimeUnit` bidang. Ini sesuai dengan **nama kolom Sumber** dan **masukan waktu stempel waktu** di konsol. Anda dapat mengelompokkan atau mempartisi catatan menggunakan `measure_name` yang didefinisikan dengan `MeasureNameColumn` kunci.

Dalam sampel,`region`,`location`, dan `hostname` dimensi. Dimensi dipetakan dalam array `DimensionMapping` objek.

Untuk ukuran, nilainya `TargetMultiMeasureAttributeName` akan menjadi kolom di Timestream untuk LiveAnalytics tabel. Anda dapat menyimpan nama yang sama seperti dalam contoh ini. Atau Anda dapat menentukan yang baru. `MeasureValueType`adalah salah satu`DOUBLE`,`BIGINT`,`BOOLEAN`,`VARCHAR`, atau`TIMESTAMP`. 

```
{
  "TimeColumn": "time",
  "TimeUnit": "MILLISECONDS",
  "DimensionMappings": [
    {
      "SourceColumn": "region",
      "DestinationColumn": "region"
    },
    {
      "SourceColumn": "location",
      "DestinationColumn": "location"
    },
    {
      "SourceColumn": "hostname",
      "DestinationColumn": "hostname"
    }
  ],
  "MeasureNameColumn": "measure_name",
  "MultiMeasureMappings": {
    "MultiMeasureAttributeMappings": [
      {
        "SourceColumn": "memory_utilization",
        "TargetMultiMeasureAttributeName": "memory_utilization",
        "MeasureValueType": "DOUBLE"
      },
      {
        "SourceColumn": "cpu_utilization",
        "TargetMultiMeasureAttributeName": "cpu_utilization",
        "MeasureValueType": "DOUBLE"
      }
    ]
  }
}
```

![\[Visual builder interface showing column mappings for timestream data attributes and types.\]](http://docs.aws.amazon.com/id_id/timestream/latest/developerguide/images/column-mapping.jpg)


## Pemetaan model data dengan contoh `MixedMeasureMappings`
<a name="batch-load-data-model-mappings-example-mixed"></a>

Kami menyarankan Anda hanya menggunakan pendekatan ini ketika Anda perlu memetakan ke catatan ukuran tunggal di Timestream untuk. LiveAnalytics

# Menggunakan pemuatan batch dengan konsol
<a name="batch-load-using-console"></a>

Berikut ini adalah langkah-langkah untuk menggunakan pemuatan batch dengan file Konsol Manajemen AWS. Anda dapat mengunduh sampel CSV di [sampel CSV](samples/batch-load-sample-file.csv.zip).

**Topics**
+ [Akses beban batch](#console_timestream.access-batch-load.using-console)
+ [Buat tugas pemuatan batch](#console_timestream.create-batch-load.using-console)
+ [Lanjutkan tugas pemuatan batch](#console_timestream.resume-batch-load.using-console)
+ [Menggunakan pembangun visual](#batch-load-using-visual-builder)

## Akses beban batch
<a name="console_timestream.access-batch-load.using-console"></a>

Ikuti langkah-langkah ini untuk mengakses pemuatan batch menggunakan file Konsol Manajemen AWS.

1. Buka konsol [Amazon Timestream](https://console.aws.amazon.com/timestream).

1. Di panel navigasi, pilih **Alat Manajemen**, lalu pilih **Tugas pemuatan Batch**.

1. Dari sini, Anda dapat melihat daftar tugas pemuatan batch dan menelusuri tugas yang diberikan untuk detail selengkapnya. Anda juga dapat membuat dan melanjutkan tugas.

## Buat tugas pemuatan batch
<a name="console_timestream.create-batch-load.using-console"></a>

Ikuti langkah-langkah ini untuk membuat tugas pemuatan batch menggunakan Konsol Manajemen AWS.

1. Buka konsol [Amazon Timestream](https://console.aws.amazon.com/timestream).

1. Di panel navigasi, pilih **Alat Manajemen**, lalu pilih **Tugas pemuatan Batch**.

1. Pilih **Buat tugas pemuatan batch**.

1. Di **tujuan Impor**, pilih yang berikut ini.
   + **Database target** - Pilih nama database yang dibuat di[Buat database](console_timestream.md#console_timestream.db.using-console).
   + **Tabel target** - Pilih nama tabel yang dibuat di[Membuat tabel](console_timestream.md#console_timestream.table.using-console).

   Jika perlu, Anda dapat menambahkan tabel dari panel ini dengan tombol **Buat tabel baru**.

1. Dari **lokasi S3 sumber data** di **Sumber data**, pilih bucket S3 tempat data sumber disimpan. Gunakan tombol **Browse S3** untuk melihat sumber daya S3 yang dapat diakses AWS akun aktif, atau masukkan URL lokasi S3. Sumber data harus berada di wilayah yang sama.

1. Dalam **Pengaturan format file** (bagian yang dapat diperluas), Anda dapat menggunakan pengaturan default untuk mengurai data input. Anda juga dapat memilih **Pengaturan lanjutan**. Dari sana Anda dapat memilih **parameter format CSV**, dan memilih parameter untuk mengurai data input. Untuk informasi tentang parameter ini, lihat[Parameter format CSV](batch-load-preparing-data-file.md#batch-load-data-file-options).

1. Dari **Konfigurasi pemetaan model data**, konfigurasikan model data. Untuk panduan model data tambahan, lihat [Pemetaan model data untuk pemuatan batch](batch-load-data-model-mappings.md)
   + Dari **Pemetaan model data**, pilih **Input konfigurasi pemetaan**, dan pilih salah satu dari berikut ini.
     + **Pembuat visual** - Untuk memetakan data secara visual, pilih **TargetMultiMeasureName**atau **MeasureNameColumn**. Kemudian dari **Visual builder**, petakan kolom.

       Pembuat visual secara otomatis mendeteksi dan memuat header kolom sumber dari file sumber data ketika satu file CSV dipilih sebagai sumber data. Pilih atribut dan tipe data untuk membuat pemetaan Anda.

       Untuk informasi tentang menggunakan pembuat visual, lihat[Menggunakan pembangun visual](#batch-load-using-visual-builder).
     + Editor **JSON — Editor** JSON bentuk bebas untuk mengonfigurasi model data Anda. Pilih opsi ini jika Anda terbiasa dengan Timestream LiveAnalytics dan ingin membangun pemetaan model data lanjutan.
     + **File JSON dari S3** - Pilih file model JSON yang telah Anda simpan di S3. Pilih opsi ini jika Anda sudah mengonfigurasi model data dan ingin menggunakannya kembali untuk pemuatan batch tambahan.

1. Dari **lokasi log Kesalahan S3** di **laporan log kesalahan**, pilih lokasi S3 yang akan digunakan untuk melaporkan kesalahan. Untuk informasi tentang cara menggunakan laporan ini, lihat[Menggunakan laporan kesalahan pemuatan batch](batch-load-using-error-reports.md).

1. Untuk **jenis kunci Enkripsi**, pilih salah satu dari berikut ini.
   + **Kunci terkelola Amazon S3 (SSE-S3)** — Kunci enkripsi yang dibuat, dikelola, dan digunakan Amazon S3 untuk Anda.
   + **AWS KMS key (SSE-KMS)** — Kunci enkripsi yang dilindungi oleh AWS Key Management Service ().AWS KMS

1. Pilih **Berikutnya**.

1. Pada **halaman Tinjau dan buat**, tinjau pengaturan dan edit seperlunya.
**catatan**  
Anda tidak dapat mengubah pengaturan tugas pemuatan batch setelah tugas dibuat. Waktu penyelesaian tugas akan bervariasi berdasarkan jumlah data yang diimpor.

1. Pilih **Buat tugas pemuatan batch**.

## Lanjutkan tugas pemuatan batch
<a name="console_timestream.resume-batch-load.using-console"></a>

Saat Anda memilih tugas pemuatan batch dengan status “Kemajuan dihentikan” yang masih dapat dilanjutkan, Anda diminta untuk melanjutkan tugas. Ada juga spanduk dengan tombol **Lanjutkan tugas** saat Anda melihat detail untuk tugas-tugas tersebut. Tugas yang dapat dilanjutkan memiliki tanggal “resume berdasarkan”. Setelah tanggal tersebut berakhir, tugas tidak dapat dilanjutkan.

## Menggunakan pembangun visual
<a name="batch-load-using-visual-builder"></a>

Anda dapat menggunakan pembuat visual untuk memetakan kolom data sumber satu atau beberapa file CSV yang disimpan dalam bucket S3 ke kolom tujuan dalam Timestream untuk tabel. LiveAnalytics 

**catatan**  
Peran Anda akan membutuhkan `SelectObjectContent` izin untuk file tersebut. Tanpa ini, Anda perlu menambah dan menghapus kolom secara manual.

### Mode kolom sumber beban otomatis
<a name="batch-load-using-visual-builder-auto-load"></a>

Timestream for LiveAnalytics dapat secara otomatis memindai file CSV sumber untuk nama kolom jika Anda menentukan satu bucket saja. Ketika tidak ada pemetaan yang ada, Anda dapat memilih **Impor kolom sumber**.

1. Dengan opsi **pembangun Visual** yang dipilih dari **pengaturan input konfigurasi Pemetaan**, atur masukan waktu stempel waktu. `Milliseconds`adalah pengaturan default.

1. Klik **Muat kolom sumber** tombol untuk mengimpor header kolom yang ditemukan di file data sumber. Tabel akan diisi dengan nama header kolom sumber dari file sumber data.

1. Pilih **nama kolom tabel Target**, **Tipe atribut Timestream**, dan **Tipe data** untuk setiap kolom sumber.

   Untuk detail tentang kolom ini dan nilai yang mungkin, lihat[Bidang pemetaan](#batch-load-using-visual-builder-mapping-fields).

1. Gunakan drag-to-fill fitur ini untuk mengatur nilai untuk beberapa kolom sekaligus.

### Tambahkan kolom sumber secara manual
<a name="batch-load-using-visual-builder-manually-add"></a>

**Jika Anda menggunakan awalan bucket atau CSV dan bukan CSV tunggal, Anda dapat menambahkan dan menghapus pemetaan kolom dari editor visual dengan tombol Tambahkan pemetaan kolom dan Hapus **pemetaan kolom**.** Ada juga tombol untuk mengatur ulang pemetaan.

### Bidang pemetaan
<a name="batch-load-using-visual-builder-mapping-fields"></a>
+ **Nama kolom sumber** - Nama kolom dalam file sumber yang mewakili ukuran untuk diimpor. Timestream for LiveAnalytics dapat mengisi nilai ini secara otomatis saat Anda menggunakan kolom **sumber Impor**.
+ **Nama kolom tabel target** - Input opsional yang menunjukkan nama kolom untuk ukuran dalam tabel target.
+ **Tipe atribut Timestream** - Jenis atribut data di kolom sumber tertentu seperti`DIMENSION`.
  + **TIMESTAMP** - Menentukan kapan ukuran dikumpulkan.
  + **MULTI** — Beberapa ukuran diwakili.
  + **DIMENSI** — Metadata deret waktu.
  + **MEASURE\$1NAME** — Untuk catatan ukuran tunggal, ini adalah nama ukuran.
+ **Tipe data** — Tipe kolom Timestream, seperti`BOOLEAN`.
  + **BIGINT** — Sebuah integer 64-bit.
  + **BOOLEAN** — Dua nilai kebenaran logika — benar dan salah.
  + **DOUBLE** - nomor presisi variabel 64-bit.
  + **TIMESTAMP** — Sebuah instance dalam waktu yang menggunakan waktu presisi nanodetik di UTC, dan melacak waktu sejak zaman Unix.

# Menggunakan beban batch dengan AWS CLI
<a name="batch-load-using-cli"></a>

**Pengaturan**

Untuk mulai menggunakan pemuatan batch, lanjutkan langkah-langkah berikut.

1. Instal AWS CLI menggunakan instruksi di[Mengakses Amazon Timestream LiveAnalytics untuk menggunakan AWS CLI](Tools.CLI.md).

1. Jalankan perintah berikut untuk memverifikasi bahwa perintah Timestream CLI telah diperbarui. Verifikasi yang create-batch-load-task ada dalam daftar.

   `aws timestream-write help`

1. Siapkan sumber data menggunakan instruksi di[Mempersiapkan file data pemuatan batch](batch-load-preparing-data-file.md).

1. Buat database dan tabel menggunakan instruksi di[Mengakses Amazon Timestream LiveAnalytics untuk menggunakan AWS CLI](Tools.CLI.md).

1. Buat bucket S3 untuk output laporan. Ember harus berada di Wilayah yang sama. Untuk informasi selengkapnya tentang bucket, lihat [Membuat, mengonfigurasi, dan bekerja dengan bucket Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-buckets-s3.html).

1. Buat tugas pemuatan batch. Untuk langkah, lihat [Buat tugas pemuatan batch](#batch-load-using-cli-create-task).

1. Konfirmasikan status tugas. Untuk langkah, lihat [Jelaskan tugas pemuatan batch](#batch-load-using-cli-describe-task).

## Buat tugas pemuatan batch
<a name="batch-load-using-cli-create-task"></a>

Anda dapat membuat tugas pemuatan batch dengan `create-batch-load-task` perintah. Saat Anda membuat tugas pemuatan batch menggunakan CLI, Anda dapat menggunakan parameter JSON`cli-input-json`, yang memungkinkan Anda menggabungkan parameter ke dalam satu fragmen JSON. Anda juga dapat memisahkan detail tersebut menggunakan beberapa parameter lain termasuk`data-model-configuration`,`data-source-configuration`,`report-configuration`,`target-database-name`, dan`target-table-name`.

Sebagai contoh, lihat [Buat contoh tugas pemuatan batch](#batch-load-using-cli-example)

## Jelaskan tugas pemuatan batch
<a name="batch-load-using-cli-describe-task"></a>

Anda dapat mengambil deskripsi tugas pemuatan batch sebagai berikut.

```
aws timestream-write describe-batch-load-task --task-id <value>
```

Berikut adalah respons contohnya:

```
{
    "BatchLoadTaskDescription": {
        "TaskId": "<TaskId>",
        "DataSourceConfiguration": {
            "DataSourceS3Configuration": {
                "BucketName": "test-batch-load-west-2",
                "ObjectKeyPrefix": "sample.csv"
            },
            "CsvConfiguration": {},
            "DataFormat": "CSV"
        },
        "ProgressReport": {
            "RecordsProcessed": 2,
            "RecordsIngested": 0,
            "FileParseFailures": 0,
            "RecordIngestionFailures": 2,
            "FileFailures": 0,
            "BytesIngested": 119
        },
        "ReportConfiguration": {
            "ReportS3Configuration": {
                "BucketName": "test-batch-load-west-2",
                "ObjectKeyPrefix": "<ObjectKeyPrefix>",
                "EncryptionOption": "SSE_S3"
            }
        },
        "DataModelConfiguration": {
            "DataModel": {
                "TimeColumn": "timestamp",
                "TimeUnit": "SECONDS",
                "DimensionMappings": [
                    {
                        "SourceColumn": "vehicle",
                        "DestinationColumn": "vehicle"
                    },
                    {
                        "SourceColumn": "registration",
                        "DestinationColumn": "license"
                    }
                ],
                "MultiMeasureMappings": {
                    "TargetMultiMeasureName": "test",
                    "MultiMeasureAttributeMappings": [
                        {
                            "SourceColumn": "wgt",
                            "TargetMultiMeasureAttributeName": "weight",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "spd",
                            "TargetMultiMeasureAttributeName": "speed",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "fuel",
                            "TargetMultiMeasureAttributeName": "fuel",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "miles",
                            "TargetMultiMeasureAttributeName": "miles",
                            "MeasureValueType": "DOUBLE"
                        }
                    ]
                }
            }
        },
        "TargetDatabaseName": "BatchLoadExampleDatabase",
        "TargetTableName": "BatchLoadExampleTable",
        "TaskStatus": "FAILED",
        "RecordVersion": 1,
        "CreationTime": 1677167593.266,
        "LastUpdatedTime": 1677167602.38
    }
}
```

## Buat daftar tugas pemuatan batch
<a name="batch-load-using-cli-list-tasks"></a>

Anda dapat membuat daftar tugas pemuatan batch sebagai berikut.

```
aws timestream-write list-batch-load-tasks
```

Output muncul sebagai berikut.

```
{
    "BatchLoadTasks": [
        {
            "TaskId": "<TaskId>",
            "TaskStatus": "FAILED",
            "DatabaseName": "BatchLoadExampleDatabase",
            "TableName": "BatchLoadExampleTable",
            "CreationTime": 1677167593.266,
            "LastUpdatedTime": 1677167602.38
        }
    ]
}
```

## Lanjutkan tugas pemuatan batch
<a name="batch-load-using-cli-resume-task"></a>

Anda dapat melanjutkan tugas pemuatan batch sebagai berikut.

```
aws timestream-write resume-batch-load-task --task-id <value>
```

Respons dapat menunjukkan keberhasilan atau mengandung informasi kesalahan.

## Buat contoh tugas pemuatan batch
<a name="batch-load-using-cli-example"></a>

**Example**  

1. Buat Timestream untuk LiveAnalytics database bernama `BatchLoad` dan tabel bernama`BatchLoadTest`. Verifikasi dan, jika perlu, sesuaikan nilai untuk `MemoryStoreRetentionPeriodInHours` dan`MagneticStoreRetentionPeriodInDays`.

   ```
   aws timestream-write create-database --database-name BatchLoad \
   
   aws timestream-write create-table --database-name BatchLoad \
   --table-name BatchLoadTest \
   --retention-properties "{\"MemoryStoreRetentionPeriodInHours\": 12, \"MagneticStoreRetentionPeriodInDays\": 100}"
   ```

1. Menggunakan konsol, buat bucket S3 dan salin `sample.csv` file ke lokasi itu. Anda dapat mengunduh sampel CSV di [sampel CSV](samples/batch-load-sample-file.csv.zip).

1. Menggunakan konsol, buat bucket S3 untuk Timestream LiveAnalytics untuk menulis laporan jika tugas pemuatan batch selesai dengan kesalahan.

1. Buat tugas pemuatan batch. Pastikan untuk mengganti *\$1INPUT\$1BUCKET* dan *\$1REPORT\$1BUCKET* dengan ember yang Anda buat pada langkah sebelumnya.

   ```
   aws timestream-write create-batch-load-task \
   --data-model-configuration "{\
               \"DataModel\": {\
                 \"TimeColumn\": \"timestamp\",\
                 \"TimeUnit\": \"SECONDS\",\
                 \"DimensionMappings\": [\
                   {\
                     \"SourceColumn\": \"vehicle\"\
                   },\
                   {\
                     \"SourceColumn\": \"registration\",\
                     \"DestinationColumn\": \"license\"\
                   }\
                 ],
                 \"MultiMeasureMappings\": {\
                   \"TargetMultiMeasureName\": \"mva_measure_name\",\
                   \"MultiMeasureAttributeMappings\": [\
                     {\
                       \"SourceColumn\": \"wgt\",\
                       \"TargetMultiMeasureAttributeName\": \"weight\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"spd\",\
                       \"TargetMultiMeasureAttributeName\": \"speed\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"fuel_consumption\",\
                       \"TargetMultiMeasureAttributeName\": \"fuel\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"miles\",\
                       \"MeasureValueType\": \"BIGINT\"\
                     }\
                   ]\
                 }\
               }\
             }" \
   --data-source-configuration "{
               \"DataSourceS3Configuration\": {\
                 \"BucketName\": \"$INPUT_BUCKET\",\
                 \"ObjectKeyPrefix\": \"$INPUT_OBJECT_KEY_PREFIX\"
               },\
               \"DataFormat\": \"CSV\"\
             }" \
   --report-configuration "{\
               \"ReportS3Configuration\": {\
                 \"BucketName\": \"$REPORT_BUCKET\",\
                 \"EncryptionOption\": \"SSE_S3\"\
               }\
             }" \
   --target-database-name BatchLoad \
   --target-table-name BatchLoadTest
   ```

   Perintah sebelumnya mengembalikan output berikut.

   ```
   {
       "TaskId": "TaskId "
   }
   ```

1. Periksa kemajuan tugas. Pastikan Anda mengganti *\$1TASK\$1ID* dengan id tugas yang dikembalikan pada langkah sebelumnya.

   ```
   aws timestream-write describe-batch-load-task --task-id $TASK_ID 
   ```
**Contoh Output**  

```
{
    "BatchLoadTaskDescription": {
        "ProgressReport": {
            "BytesIngested": 1024,
            "RecordsIngested": 2,
            "FileFailures": 0,
            "RecordIngestionFailures": 0,
            "RecordsProcessed": 2,
            "FileParseFailures": 0
        },
        "DataModelConfiguration": {
            "DataModel": {
                "DimensionMappings": [
                    {
                        "SourceColumn": "vehicle",
                        "DestinationColumn": "vehicle"
                    },
                    {
                        "SourceColumn": "registration",
                        "DestinationColumn": "license"
                    }
                ],
                "TimeUnit": "SECONDS",
                "TimeColumn": "timestamp",
                "MultiMeasureMappings": {
                    "MultiMeasureAttributeMappings": [
                        {
                            "TargetMultiMeasureAttributeName": "weight",
                            "SourceColumn": "wgt",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "speed",
                            "SourceColumn": "spd",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "fuel",
                            "SourceColumn": "fuel_consumption",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "miles",
                            "SourceColumn": "miles",
                            "MeasureValueType": "DOUBLE"
                        }
                    ],
                    "TargetMultiMeasureName": "mva_measure_name"
                }
            }
        },
        "TargetDatabaseName": "BatchLoad",
        "CreationTime": 1672960381.735,
        "TaskStatus": "SUCCEEDED",
        "RecordVersion": 1,
        "TaskId": "TaskId ",
        "TargetTableName": "BatchLoadTest",
        "ReportConfiguration": {
            "ReportS3Configuration": {
                "EncryptionOption": "SSE_S3",
                "ObjectKeyPrefix": "ObjectKeyPrefix ",
                "BucketName": "amzn-s3-demo-bucket"
            }
        },
        "DataSourceConfiguration": {
            "DataSourceS3Configuration": {
                "ObjectKeyPrefix": "sample.csv",
                "BucketName": "amzn-s3-demo-source-bucket"
            },
            "DataFormat": "CSV",
            "CsvConfiguration": {}
        },
        "LastUpdatedTime": 1672960387.334
    }
}
```

# Menggunakan beban batch dengan AWS SDKs
<a name="batch-load-using-sdk"></a>

Untuk contoh cara membuat, mendeskripsikan, dan membuat daftar tugas pemuatan batch dengan AWS SDKs, lihat[Buat tugas pemuatan batch](code-samples.create-batch-load.md),[Jelaskan tugas pemuatan batch](code-samples.describe-batch-load.md),[Buat daftar tugas pemuatan batch](code-samples.list-batch-load-tasks.md), dan[Lanjutkan tugas pemuatan batch](code-samples.resume-batch-load-task.md).

# Menggunakan laporan kesalahan pemuatan batch
<a name="batch-load-using-error-reports"></a>

Tugas pemuatan Batch memiliki salah satu nilai status berikut:
+ `CREATED`(**Dibuat**) - Tugas dibuat.
+ `IN_PROGRESS`(**Dalam proses**) — Tugas sedang berlangsung.
+ `FAILED`(**Gagal**) — Tugas telah selesai. Tetapi satu atau lebih kesalahan terdeteksi.
+ `SUCCEEDED`(**Selesai**) — Tugas telah selesai tanpa kesalahan.
+ `PROGRESS_STOPPED`(**Kemajuan berhenti**) — Tugas telah berhenti tetapi tidak selesai. Anda dapat mencoba melanjutkan tugas.
+ `PENDING_RESUME`(**Resume tertunda**) — Tugas sedang menunggu untuk dilanjutkan.

Jika ada kesalahan, laporan log kesalahan dibuat di bucket S3 yang ditentukan untuk itu. Kesalahan dikategorikan sebagai TaskErrors atau FileErrors dalam array terpisah. Berikut ini adalah contoh laporan kesalahan.

```
{
    "taskId": "9367BE28418C5EF902676482220B631C",
    "taskErrors": [],
    "fileErrors": [
        {
            "fileName": "example.csv",
            "errors": [
                {
                    "reason": "The record timestamp is outside the time range of the data ingestion window.",
                    "lineRanges": [
                        [
                            2,
                            3
                        ]
                    ]
                }
            ]
        }
    ]
}
```