

Untuk kemampuan serupa dengan Amazon Timestream LiveAnalytics, pertimbangkan Amazon Timestream untuk InfluxDB. Ini menawarkan konsumsi data yang disederhanakan dan waktu respons kueri milidetik satu digit untuk analitik waktu nyata. Pelajari lebih lanjut [di sini](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html).

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Menggunakan beban batch dengan AWS CLI
<a name="batch-load-using-cli"></a>

**Pengaturan**

Untuk mulai menggunakan pemuatan batch, lanjutkan langkah-langkah berikut.

1. Instal AWS CLI menggunakan instruksi di[Mengakses Amazon Timestream LiveAnalytics untuk menggunakan AWS CLI](Tools.CLI.md).

1. Jalankan perintah berikut untuk memverifikasi bahwa perintah Timestream CLI telah diperbarui. Verifikasi yang create-batch-load-task ada dalam daftar.

   `aws timestream-write help`

1. Siapkan sumber data menggunakan instruksi di[Mempersiapkan file data pemuatan batch](batch-load-preparing-data-file.md).

1. Buat database dan tabel menggunakan instruksi di[Mengakses Amazon Timestream LiveAnalytics untuk menggunakan AWS CLI](Tools.CLI.md).

1. Buat bucket S3 untuk output laporan. Ember harus berada di Wilayah yang sama. Untuk informasi selengkapnya tentang bucket, lihat [Membuat, mengonfigurasi, dan bekerja dengan bucket Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-buckets-s3.html).

1. Buat tugas pemuatan batch. Untuk langkah, lihat [Buat tugas pemuatan batch](#batch-load-using-cli-create-task).

1. Konfirmasikan status tugas. Untuk langkah, lihat [Jelaskan tugas pemuatan batch](#batch-load-using-cli-describe-task).

## Buat tugas pemuatan batch
<a name="batch-load-using-cli-create-task"></a>

Anda dapat membuat tugas pemuatan batch dengan `create-batch-load-task` perintah. Saat Anda membuat tugas pemuatan batch menggunakan CLI, Anda dapat menggunakan parameter JSON`cli-input-json`, yang memungkinkan Anda menggabungkan parameter ke dalam satu fragmen JSON. Anda juga dapat memisahkan detail tersebut menggunakan beberapa parameter lain termasuk`data-model-configuration`,`data-source-configuration`,`report-configuration`,`target-database-name`, dan`target-table-name`.

Sebagai contoh, lihat [Buat contoh tugas pemuatan batch](#batch-load-using-cli-example)

## Jelaskan tugas pemuatan batch
<a name="batch-load-using-cli-describe-task"></a>

Anda dapat mengambil deskripsi tugas pemuatan batch sebagai berikut.

```
aws timestream-write describe-batch-load-task --task-id <value>
```

Berikut adalah respons contohnya:

```
{
    "BatchLoadTaskDescription": {
        "TaskId": "<TaskId>",
        "DataSourceConfiguration": {
            "DataSourceS3Configuration": {
                "BucketName": "test-batch-load-west-2",
                "ObjectKeyPrefix": "sample.csv"
            },
            "CsvConfiguration": {},
            "DataFormat": "CSV"
        },
        "ProgressReport": {
            "RecordsProcessed": 2,
            "RecordsIngested": 0,
            "FileParseFailures": 0,
            "RecordIngestionFailures": 2,
            "FileFailures": 0,
            "BytesIngested": 119
        },
        "ReportConfiguration": {
            "ReportS3Configuration": {
                "BucketName": "test-batch-load-west-2",
                "ObjectKeyPrefix": "<ObjectKeyPrefix>",
                "EncryptionOption": "SSE_S3"
            }
        },
        "DataModelConfiguration": {
            "DataModel": {
                "TimeColumn": "timestamp",
                "TimeUnit": "SECONDS",
                "DimensionMappings": [
                    {
                        "SourceColumn": "vehicle",
                        "DestinationColumn": "vehicle"
                    },
                    {
                        "SourceColumn": "registration",
                        "DestinationColumn": "license"
                    }
                ],
                "MultiMeasureMappings": {
                    "TargetMultiMeasureName": "test",
                    "MultiMeasureAttributeMappings": [
                        {
                            "SourceColumn": "wgt",
                            "TargetMultiMeasureAttributeName": "weight",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "spd",
                            "TargetMultiMeasureAttributeName": "speed",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "fuel",
                            "TargetMultiMeasureAttributeName": "fuel",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "miles",
                            "TargetMultiMeasureAttributeName": "miles",
                            "MeasureValueType": "DOUBLE"
                        }
                    ]
                }
            }
        },
        "TargetDatabaseName": "BatchLoadExampleDatabase",
        "TargetTableName": "BatchLoadExampleTable",
        "TaskStatus": "FAILED",
        "RecordVersion": 1,
        "CreationTime": 1677167593.266,
        "LastUpdatedTime": 1677167602.38
    }
}
```

## Buat daftar tugas pemuatan batch
<a name="batch-load-using-cli-list-tasks"></a>

Anda dapat membuat daftar tugas pemuatan batch sebagai berikut.

```
aws timestream-write list-batch-load-tasks
```

Output muncul sebagai berikut.

```
{
    "BatchLoadTasks": [
        {
            "TaskId": "<TaskId>",
            "TaskStatus": "FAILED",
            "DatabaseName": "BatchLoadExampleDatabase",
            "TableName": "BatchLoadExampleTable",
            "CreationTime": 1677167593.266,
            "LastUpdatedTime": 1677167602.38
        }
    ]
}
```

## Lanjutkan tugas pemuatan batch
<a name="batch-load-using-cli-resume-task"></a>

Anda dapat melanjutkan tugas pemuatan batch sebagai berikut.

```
aws timestream-write resume-batch-load-task --task-id <value>
```

Respons dapat menunjukkan keberhasilan atau mengandung informasi kesalahan.

## Buat contoh tugas pemuatan batch
<a name="batch-load-using-cli-example"></a>

**Example**  

1. Buat Timestream untuk LiveAnalytics database bernama `BatchLoad` dan tabel bernama`BatchLoadTest`. Verifikasi dan, jika perlu, sesuaikan nilai untuk `MemoryStoreRetentionPeriodInHours` dan`MagneticStoreRetentionPeriodInDays`.

   ```
   aws timestream-write create-database --database-name BatchLoad \
   
   aws timestream-write create-table --database-name BatchLoad \
   --table-name BatchLoadTest \
   --retention-properties "{\"MemoryStoreRetentionPeriodInHours\": 12, \"MagneticStoreRetentionPeriodInDays\": 100}"
   ```

1. Menggunakan konsol, buat bucket S3 dan salin `sample.csv` file ke lokasi itu. Anda dapat mengunduh sampel CSV di [sampel CSV](samples/batch-load-sample-file.csv.zip).

1. Menggunakan konsol, buat bucket S3 untuk Timestream LiveAnalytics untuk menulis laporan jika tugas pemuatan batch selesai dengan kesalahan.

1. Buat tugas pemuatan batch. Pastikan untuk mengganti *\$1INPUT\$1BUCKET* dan *\$1REPORT\$1BUCKET* dengan ember yang Anda buat pada langkah sebelumnya.

   ```
   aws timestream-write create-batch-load-task \
   --data-model-configuration "{\
               \"DataModel\": {\
                 \"TimeColumn\": \"timestamp\",\
                 \"TimeUnit\": \"SECONDS\",\
                 \"DimensionMappings\": [\
                   {\
                     \"SourceColumn\": \"vehicle\"\
                   },\
                   {\
                     \"SourceColumn\": \"registration\",\
                     \"DestinationColumn\": \"license\"\
                   }\
                 ],
                 \"MultiMeasureMappings\": {\
                   \"TargetMultiMeasureName\": \"mva_measure_name\",\
                   \"MultiMeasureAttributeMappings\": [\
                     {\
                       \"SourceColumn\": \"wgt\",\
                       \"TargetMultiMeasureAttributeName\": \"weight\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"spd\",\
                       \"TargetMultiMeasureAttributeName\": \"speed\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"fuel_consumption\",\
                       \"TargetMultiMeasureAttributeName\": \"fuel\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"miles\",\
                       \"MeasureValueType\": \"BIGINT\"\
                     }\
                   ]\
                 }\
               }\
             }" \
   --data-source-configuration "{
               \"DataSourceS3Configuration\": {\
                 \"BucketName\": \"$INPUT_BUCKET\",\
                 \"ObjectKeyPrefix\": \"$INPUT_OBJECT_KEY_PREFIX\"
               },\
               \"DataFormat\": \"CSV\"\
             }" \
   --report-configuration "{\
               \"ReportS3Configuration\": {\
                 \"BucketName\": \"$REPORT_BUCKET\",\
                 \"EncryptionOption\": \"SSE_S3\"\
               }\
             }" \
   --target-database-name BatchLoad \
   --target-table-name BatchLoadTest
   ```

   Perintah sebelumnya mengembalikan output berikut.

   ```
   {
       "TaskId": "TaskId "
   }
   ```

1. Periksa kemajuan tugas. Pastikan Anda mengganti *\$1TASK\$1ID* dengan id tugas yang dikembalikan pada langkah sebelumnya.

   ```
   aws timestream-write describe-batch-load-task --task-id $TASK_ID 
   ```
**Contoh Output**  

```
{
    "BatchLoadTaskDescription": {
        "ProgressReport": {
            "BytesIngested": 1024,
            "RecordsIngested": 2,
            "FileFailures": 0,
            "RecordIngestionFailures": 0,
            "RecordsProcessed": 2,
            "FileParseFailures": 0
        },
        "DataModelConfiguration": {
            "DataModel": {
                "DimensionMappings": [
                    {
                        "SourceColumn": "vehicle",
                        "DestinationColumn": "vehicle"
                    },
                    {
                        "SourceColumn": "registration",
                        "DestinationColumn": "license"
                    }
                ],
                "TimeUnit": "SECONDS",
                "TimeColumn": "timestamp",
                "MultiMeasureMappings": {
                    "MultiMeasureAttributeMappings": [
                        {
                            "TargetMultiMeasureAttributeName": "weight",
                            "SourceColumn": "wgt",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "speed",
                            "SourceColumn": "spd",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "fuel",
                            "SourceColumn": "fuel_consumption",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "miles",
                            "SourceColumn": "miles",
                            "MeasureValueType": "DOUBLE"
                        }
                    ],
                    "TargetMultiMeasureName": "mva_measure_name"
                }
            }
        },
        "TargetDatabaseName": "BatchLoad",
        "CreationTime": 1672960381.735,
        "TaskStatus": "SUCCEEDED",
        "RecordVersion": 1,
        "TaskId": "TaskId ",
        "TargetTableName": "BatchLoadTest",
        "ReportConfiguration": {
            "ReportS3Configuration": {
                "EncryptionOption": "SSE_S3",
                "ObjectKeyPrefix": "ObjectKeyPrefix ",
                "BucketName": "amzn-s3-demo-bucket"
            }
        },
        "DataSourceConfiguration": {
            "DataSourceS3Configuration": {
                "ObjectKeyPrefix": "sample.csv",
                "BucketName": "amzn-s3-demo-source-bucket"
            },
            "DataFormat": "CSV",
            "CsvConfiguration": {}
        },
        "LastUpdatedTime": 1672960387.334
    }
}
```