

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Buat pekerjaan impor AWS IoT SiteWise massal (AWS CLI)
<a name="CreateBulkImportJob"></a>

Gunakan operasi [CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html)API untuk mentransfer data dari Amazon S3 ke. AWS IoT SiteWise[CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html)API memungkinkan konsumsi volume besar data historis, dan buffer konsumsi aliran data analitik dalam batch kecil. Ini memberikan primitif hemat biaya untuk konsumsi data. Contoh berikut menggunakan AWS CLI.

**penting**  
Sebelum membuat pekerjaan impor massal, Anda harus mengaktifkan tingkat AWS IoT SiteWise hangat atau tingkat AWS IoT SiteWise dingin. Untuk informasi selengkapnya, lihat [Konfigurasikan pengaturan penyimpanan di AWS IoT SiteWise](configure-storage.md).  
 [CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html)API mendukung konsumsi data historis ke dalam AWS IoT SiteWise dengan opsi untuk mengatur parameter. adaptive-ingestion-flag   
Saat disetel ke`false`, API akan menyerap data historis tanpa memicu perhitungan atau notifikasi.
Saat disetel ke`true`, API akan menyerap data baru, menghitung metrik, dan mengubah data untuk mengoptimalkan analitik dan notifikasi yang sedang berlangsung dalam tujuh hari.

Jalankan perintah berikut. Ganti *file-name* dengan nama file yang berisi konfigurasi pekerjaan impor massal.

```
aws iotsitewise create-bulk-import-job --cli-input-json file://file-name.json
```

**Example Konfigurasi pekerjaan impor massal**  
Berikut ini adalah contoh pengaturan konfigurasi:  
+ Ganti *adaptive-ingestion-flag* dengan `true` atau`false`.
  + Jika disetel ke`false`, pekerjaan impor massal akan memasukkan data historis ke dalam AWS IoT SiteWise.
  + Jika disetel ke`true`, pekerjaan impor massal melakukan hal berikut:
    + Menyerap data baru ke dalam AWS IoT SiteWise.
    + Menghitung metrik dan transformasi, dan mendukung pemberitahuan untuk data dengan cap waktu yang dalam tujuh hari.
+ Ganti *delete-files-after-import-flag* dengan `true` untuk menghapus data dari bucket data Amazon S3 setelah masuk ke penyimpanan tingkat AWS IoT SiteWise hangat.
+ Ganti amzn-s3-demo-bucket dengan *-for-errors* nama bucket Amazon S3 tempat kesalahan yang terkait dengan pekerjaan impor massal ini dikirim.
+ Ganti amzn-s3-demo-bucket dengan *-for-errors-prefix* awalan bucket Amazon S3 tempat kesalahan yang terkait dengan pekerjaan impor massal ini dikirim. 

  Amazon S3 menggunakan awalan sebagai nama folder untuk mengatur data dalam bucket. Setiap objek Amazon S3 memiliki kunci yang merupakan pengenal uniknya di bucket. Setiap objek dalam bucket memiliki satu kunci. Prefiks harus diakhiri dengan garis miring ke depan (/). Untuk informasi selengkapnya, lihat [Mengatur objek menggunakan awalan](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-prefixes.html) di *Panduan Pengguna Layanan Penyimpanan Sederhana Amazon*.
+ Ganti amzn-s3-demo-bucket dengan *-data* nama bucket Amazon S3 tempat datanya diimpor.
+ Ganti *data-bucket-key* dengan kunci objek Amazon S3 yang berisi data Anda. Setiap objek memiliki kunci yang berupa pengidentifikasi unik. Setiap objek memiliki tepat satu kunci.
+ Ganti *data-bucket-version-id* dengan ID versi untuk mengidentifikasi versi tertentu dari objek Amazon S3 yang berisi data Anda. Parameter ini bersifat opsional.
+ Ganti *column-name* dengan nama kolom yang ditentukan dalam file.csv.
+ Ganti *job-name* dengan nama unik yang mengidentifikasi pekerjaan impor massal.
+ Ganti *job-role-arn* dengan peran IAM yang memungkinkan AWS IoT SiteWise untuk membaca data Amazon S3.
Pastikan peran Anda memiliki izin yang ditunjukkan dalam contoh berikut. Ganti amzn-s3-demo-bucket dengan *-data* nama bucket Amazon S3 yang berisi data Anda. Selain itu, ganti *amzn-s3-demo-bucket-for-errors* dengan nama bucket Amazon S3 tempat kesalahan yang terkait dengan pekerjaan impor massal ini dikirim.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetObject",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket-data",
                "arn:aws:s3:::amzn-s3-demo-bucket-data/*"
            ],
            "Effect": "Allow"
        },
        {
            "Action": [
                "s3:PutObject",
                "s3:GetObject",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket-for-errors",
                "arn:aws:s3:::amzn-s3-demo-bucket-for-errors/*"
            ],
            "Effect": "Allow"
        }
    ]
}
```

```
{
   "adaptiveIngestion": adaptive-ingestion-flag,
   "deleteFilesAfterImport": delete-files-after-import-flag,       
   "errorReportLocation": { 
      "bucket": "amzn-s3-demo-bucket-for-errors",
      "prefix": "amzn-s3-demo-bucket-for-errors-prefix"
   },
   "files": [ 
      { 
         "bucket": "amzn-s3-demo-bucket-data",
         "key": "data-bucket-key",
         "versionId": "data-bucket-version-id"
      }
   ],
   "jobConfiguration": { 
      "fileFormat": { 
         "csv": { 
            "columnNames": [ "column-name" ]
         }
      }
   },
   "jobName": "job-name",
   "jobRoleArn": "job-role-arn"    
}
```

**Example response**  

```
{
   "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5",
   "jobStatus":"PENDING",
   "jobName":"myBulkImportJob"
}
```