

AWS Data Pipeline tidak lagi tersedia untuk pelanggan baru. Pelanggan yang sudah ada AWS Data Pipeline dapat terus menggunakan layanan seperti biasa. [Pelajari selengkapnya](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Referensi Objek Alur
<a name="dp-pipeline-objects"></a>

Menjelaskan objek alur dan komponen berikut yang dapat Anda gunakan dalam file definisi alur Anda.

**Topics**
+ [Simpul Data](dp-object-datanodes.md)
+ [Aktivitas](dp-object-activities.md)
+ [Sumber daya](dp-object-resources.md)
+ [Prasyarat](dp-object-preconditions.md)
+ [Basis Data](dp-object-databases.md)
+ [Format Data](dp-object-dataformats.md)
+ [Tindakan](dp-object-actions.md)
+ [Jadwal](dp-object-schedule.md)
+ [Utilitas](dp-object-utilities.md)

**catatan**  
Untuk contoh aplikasi yang menggunakan AWS Data Pipeline Java SDK, lihat [Data Pipeline DynamoDB](https://github.com/awslabs/data-pipeline-samples/tree/master/samples/DynamoDBExportJava) Export Java Sample on. GitHub

Berikut ini adalah hirarki objek untuk AWS Data Pipeline.

![\[AWS Data Pipeline hirarki objek\]](http://docs.aws.amazon.com/id_id/datapipeline/latest/DeveloperGuide/images/object_hierarchy.png)


# Simpul Data
<a name="dp-object-datanodes"></a>

Berikut ini adalah objek node AWS Data Pipeline data:

**Topics**
+ [Node Dinamo DBData](dp-object-dynamodbdatanode.md)
+ [MySqlDataNode](dp-object-mysqldatanode.md)
+ [RedshiftDataNode](dp-object-redshiftdatanode.md)
+ [S3 DataNode](dp-object-s3datanode.md)
+ [SqlDataNode](dp-object-sqldatanode.md)

# Node Dinamo DBData
<a name="dp-object-dynamodbdatanode"></a>

 Mendefinisikan simpul data menggunakan DynamoDB, yang ditetapkan sebagai masukan ke objek `HiveActivity` atau `EMRActivity`. 

**catatan**  
Objek `DynamoDBDataNode` tidak support prasyarat `Exists`.

## Contoh
<a name="dynamodbdatanode-example"></a>

Berikut adalah contoh dari jenis objek ini. Objek ini mereferensikan dua objek lain yang Anda akan definisikan dalam file definisi alur yang sama. `CopyPeriod` adalah objek `Schedule` dan `Ready` adalah objek prasyarat.

```
{
  "id" : "MyDynamoDBTable",
  "type" : "DynamoDBDataNode",
  "schedule" : { "ref" : "CopyPeriod" },
  "tableName" : "adEvents",
  "precondition" : { "ref" : "Ready" }
}
```

## Sintaksis
<a name="dynamodbdatanode-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| tableName | Tabel DynamoDB. | String | 

 


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Pengguna harus menentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi ketergantungan untuk objek ini. Pengguna dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan “jadwal”: \$1"ref”: "“\$1. DefaultSchedule Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), pengguna dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang contoh konfigurasi jadwal opsional, lihat [Jadwal](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html). | Objek Referensi, misalnya, “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika bidang ini disetel, maka aktivitas jarak jauh yang tidak lengkap dalam waktu mulai yang ditetapkan mungkin dicoba lagi. | Periode | 
| dataFormat | DataFormat untuk data yang dijelaskan oleh node data ini. Saat ini didukung untuk HiveActivity dan HiveCopyActivity. | Objek Referensi, “DataFormat”: \$1"ref” :"MyDynamo “\$1 DBData FormatId | 
| dependsOn | Tentukan ketergantungan pada objek lain yang bisa dijalankan | Objek Referensi, misalnya “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| readThroughputPercent | Mengatur tingkat operasi baca untuk menjaga tingkat throughput yang disediakan DynamoDB Anda berada dalam kisaran dialokasikan untuk tabel Anda. Nilainya adalah dua kali lipat antara 0,1 dan 1,0, secara inklusif. | Ganda | 
| region | Kode untuk wilayah di mana tabel DynamoDB ada. Misalnya, us-east-1. Ini digunakan oleh HiveActivity ketika melakukan pementasan untuk tabel DynamoDB di Hive. | Pencacahan | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| runsOn | Sumber daya komputasi untuk menjalankan aktivitas atau perintah. Misalnya, instans Amazon EC2 atau klaster Amazon EMR. | Objek Referensi, misalnya “RunsOn”: \$1"ref”:” “\$1 myResourceId | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Penjadwalan Gaya Deret Waktu berarti instans dijadwalkan pada akhir setiap interval dan Penjadwalan Gaya Cron berarti intans dijadwalkan pada awal setiap interval. Jadwal sesuai permintaan mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal sesuai permintaan itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan saluran pipa sesuai permintaan, Anda cukup memanggil ActivatePipeline operasi untuk setiap proses berikutnya. Nilai adalah: cron, ondemand, dan timeseries. | Pencacahan | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup diabaikan. | String | 
| writeThroughputPercent | Mengatur tingkat operasi tulis untuk menjaga tingkat throughput yang disediakan DynamoDB Anda berada dalam kisaran yang dialokasikan untuk tabel Anda. Nilainya adalah dua kali lipat antara 0,1 dan 1,0, secara inklusif. | Ganda | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai ketergantungan tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk objek | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

# MySqlDataNode
<a name="dp-object-mysqldatanode"></a>

 Mendefinisikan simpul data menggunakan MySQL. 

**catatan**  
Jenis `MySqlDataNode` tidak lagi digunakan. Sebagai gantinya, kami rekomendasikan Anda menggunakan [SqlDataNode](dp-object-sqldatanode.md).

## Contoh
<a name="mysqldatanode-example"></a>

Berikut adalah contoh dari jenis objek ini. Objek ini mereferensikan dua objek lain yang Anda akan definisikan dalam file definisi alur yang sama. `CopyPeriod` adalah objek `Schedule` dan `Ready` adalah objek prasyarat.

```
{
  "id" : "Sql Table",
  "type" : "MySqlDataNode",
  "schedule" : { "ref" : "CopyPeriod" },
  "table" : "adEvents",
  "username": "user_name",
  "*password": "my_password",
  "connectionString": "jdbc:mysql://mysqlinstance-rds.example.us-east-1.rds.amazonaws.com:3306/database_name",
  "selectQuery" : "select * from #{table} where eventTime >= '#{@scheduledStartTime.format('YYYY-MM-dd HH:mm:ss')}' and eventTime < '#{@scheduledEndTime.format('YYYY-MM-dd HH:mm:ss')}'",
  "precondition" : { "ref" : "Ready" }
}
```

### Sintaksis
<a name="mysqldatanode-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| tabel | Nama tabel dalam basis data MySQL. | String | 

 


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Pengguna harus menentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi ketergantungan untuk objek ini. Pengguna dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan “jadwal”: \$1"ref”: "“\$1. DefaultSchedule Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), pengguna dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html) | Objek Referensi, misalnya “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| createTableSql | SQL membuat ekspresi tabel yang menciptakan tabel. | String | 
| basis data | Nama basis data. | Objek Referensi, misalnya “database”: \$1"ref”:” myDatabaseId “\$1 | 
| dependsOn | Menentukan dependensi pada objek lain yang bisa dijalankan. | Objek Referensi, misalnya “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| insertQuery | Sebuah pernyataan SQL untuk memasukkan data ke dalam tabel. | String | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| runsOn | Sumber daya komputasi untuk menjalankan aktivitas atau perintah. Misalnya, instans Amazon EC2 atau klaster Amazon EMR. | Objek Referensi, misalnya “RunsOn”: \$1"ref”:” “\$1 myResourceId | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Penjadwalan Gaya Deret Waktu berarti instans dijadwalkan pada akhir setiap interval dan Penjadwalan Gaya Cron berarti intans dijadwalkan pada awal setiap interval. Jadwal sesuai permintaan mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal sesuai permintaan itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan saluran pipa sesuai permintaan, Anda cukup memanggil ActivatePipeline operasi untuk setiap proses berikutnya. Nilai adalah: cron, ondemand, dan timeseries. | Pencacahan | 
| schemaName | Nama skema yang memegang tabel | String | 
| selectQuery | Sebuah pernyataan SQL untuk mengambil data dari tabel. | String | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup diabaikan. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan akhir waktu untuk objek. | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

## Lihat Juga
<a name="mysqldatanode-seealso"></a>
+ [S3 DataNode](dp-object-s3datanode.md)

# RedshiftDataNode
<a name="dp-object-redshiftdatanode"></a>

Mendefinisikan simpul data menggunakan Amazon Redshift. `RedshiftDataNode`mewakili properti data di dalam basis data, seperti tabel data, yang digunakan oleh alur Anda.

## Contoh
<a name="redshiftdatanode-example"></a>

Berikut adalah contoh dari jenis objek ini.

```
{
  "id" : "MyRedshiftDataNode",
  "type" : "RedshiftDataNode",
  "database": { "ref": "MyRedshiftDatabase" },
  "tableName": "adEvents",
  "schedule": { "ref": "Hour" }
}
```

## Sintaksis
<a name="redshiftdatanode-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| basis data | Basis data tempat tabel berada. | Objek Referensi, misalnya “database”: \$1"ref”:” myRedshiftDatabase Id "\$1 | 
| tableName | Nama tabel Amazon Redshift. Tabel dibuat jika belum ada dan Anda telah menyediakan createTableSql. | String | 

 


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Pengguna harus menentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi ketergantungan untuk objek ini. Pengguna dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan “jadwal”: \$1"ref”: "“\$1. DefaultSchedule Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), pengguna dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html) | Objek Referensi, misalnya “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| createTableSql | Ekspresi SQL untuk membuat tabel dalam basis data. Kami menyarankan Anda menentukan skema di mana tabel harus dibuat, misalnya: CREATE TABLE MySchema.myTable (bestColumn varchar (25) primary key distkey, integer sortKey). numberOfWins AWS Data Pipeline menjalankan skrip di createTableSql bidang jika tabel, ditentukan oleh TableName, tidak ada dalam skema, ditentukan oleh bidang schemaName. Misalnya, jika Anda menentukan schemaName sebagai MySchema tetapi tidak menyertakan mySchema di createTableSql bidang, tabel dibuat dalam skema yang salah (secara default, itu akan dibuat di PUBLIC). Hal ini terjadi karena AWS Data Pipeline tidak mengurai pernyataan CREATE TABLE Anda.  | String | 
| dependsOn | Tentukan ketergantungan pada objek lain yang bisa dijalankan | Objek Referensi, misalnya “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Upaya jumlah maksimum mencoba lagi pada kegagalan. | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| primaryKeys | Jika Anda tidak menentukan primaryKeys untuk tabel tujuan di RedShiftCopyActivity, Anda dapat menentukan daftar kolom menggunakan primaryKeys yang akan bertindak sebagai mergeKey. Namun, jika Anda memiliki primaryKey yang ada yang didefinisikan dalam tabel Amazon Redshift, pengaturan ini menimpa kunci yang ada. | String | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| runsOn | Sumber daya komputasi untuk menjalankan aktivitas atau perintah. Misalnya, instans Amazon EC2 atau klaster Amazon EMR. | Objek Referensi, misalnya “RunsOn”: \$1"ref”:” “\$1 myResourceId | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Penjadwalan Gaya Deret Waktu berarti instans dijadwalkan pada akhir setiap interval dan Penjadwalan Gaya Cron berarti intans dijadwalkan pada awal setiap interval. Jadwal sesuai permintaan mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal sesuai permintaan itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan saluran pipa sesuai permintaan, Anda cukup memanggil ActivatePipeline operasi untuk setiap proses berikutnya. Nilai adalah: cron, ondemand, dan timeseries. | Pencacahan | 
| schemaName | Bidang opsional ini menentukan nama skema untuk tabel Amazon Redshift. Jika tidak ditentukan, nama skemanya adalah PUBLIK, yang merupakan skema default di Amazon Redshift. Untuk informasi selengkapnya, lihat Panduan Developer Basis Data Amazon Redshift.  | String | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup diabaikan. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk objek | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

# S3 DataNode
<a name="dp-object-s3datanode"></a>

 Mendefinisikan simpul data menggunakan Amazon S3. Secara default, S3 DataNode menggunakan enkripsi sisi server. Jika Anda ingin menonaktifkan ini, setel s3 EncryptionType ke NONE. 

**catatan**  
Saat Anda menggunakan `S3DataNode` sebagai masukan ke `CopyActivity`, hanya format data CSV dan TSV yang disupport.

## Contoh
<a name="s3datanode-example"></a>

Berikut adalah contoh dari jenis objek ini. Objek ini mereferensikan objek lain yang Anda akan definisikan dalam file definisi alur yang sama. `CopyPeriod` adalah objek `Schedule`.

```
{
  "id" : "OutputData",
  "type" : "S3DataNode",
  "schedule" : { "ref" : "CopyPeriod" },
  "filePath" : "s3://amzn-s3-demo-bucket/#{@scheduledStartTime}.csv"
}
```

## Sintaksis
<a name="s3datanode-syntax"></a>


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Pengguna harus menentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi ketergantungan untuk objek ini. Pengguna dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan “jadwal”: \$1"ref”: "“\$1. DefaultSchedule Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), pengguna dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html) | Objek Referensi, misalnya “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| Kompresi | Jenis kompresi untuk data yang dijelaskan oleh S3DataNode. “none” tidak ada kompresi dan “gzip” dikompresi dengan algoritma gzip. Bidang ini hanya didukung untuk digunakan dengan Amazon Redshift dan saat Anda menggunakan DataNode S3 dengan. CopyActivity | Pencacahan | 
| dataFormat | DataFormat untuk data yang dijelaskan oleh S3 DataNode ini. | Objek Referensi, misalnya “DataFormat”: \$1"ref”:” myDataFormat Id "\$1 | 
| dependsOn | Tentukan ketergantungan pada objek lain yang bisa dijalankan | Objek Referensi, misalnya “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| directoryPath | Jalur direktori Amazon S3 sebagai URI: s3://my-bucket/. my-key-for-directory Anda harus memberikan nilai filePath atau directoryPath. | String | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| filePath | Jalur ke objek di Amazon S3 sebagai URI, misalnya: s3://my-bucket/. my-key-for-file Anda harus memberikan nilai filePath atau directoryPath. Ini mewakili folder dan nama file. Gunakan nilai directoryPath untuk mengakomodasi beberapa file dalam direktori. | String | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| manifestFilePath | Jalur Amazon S3 ke file manifes dalam format yang didukung oleh Amazon Redshift. AWS Data Pipeline menggunakan file manifes untuk menyalin file Amazon S3 yang ditentukan ke dalam tabel. Bidang ini hanya valid ketika RedShiftCopyActivity referensi S3DataNode. | String | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| runsOn | Sumber daya komputasi untuk menjalankan aktivitas atau perintah. Misalnya, instans Amazon EC2 atau klaster Amazon EMR. | Objek Referensi, misalnya “RunsOn”: \$1"ref”:” “\$1 myResourceId | 
| s3 EncryptionType | Mengganti jenis enkripsi Amazon S3. Nilai adalah SERVER\$1SIDE\$1ENCRYPTION atau NONE. Enkripsi sisi server diaktifkan secara default.  | Pencacahan | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Penjadwalan Gaya Deret Waktu berarti instans dijadwalkan pada akhir setiap interval dan Penjadwalan Gaya Cron berarti intans dijadwalkan pada awal setiap interval. Jadwal sesuai permintaan mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal sesuai permintaan itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan saluran pipa sesuai permintaan, Anda cukup memanggil ActivatePipeline operasi untuk setiap proses berikutnya. Nilai adalah: cron, ondemand, dan timeseries. | Pencacahan | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup diabaikan. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk objek | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

## Lihat Juga
<a name="s3datanode-seealso"></a>
+ [MySqlDataNode](dp-object-mysqldatanode.md)

# SqlDataNode
<a name="dp-object-sqldatanode"></a>

 Mendefinisikan simpul data menggunakan SQL. 

## Contoh
<a name="example-sql-data-node"></a>

Berikut adalah contoh dari jenis objek ini. Objek ini mereferensikan dua objek lain yang Anda akan definisikan dalam file definisi alur yang sama. `CopyPeriod` adalah objek `Schedule` dan `Ready` adalah objek prasyarat.

```
{
  "id" : "Sql Table",
  "type" : "SqlDataNode",
  "schedule" : { "ref" : "CopyPeriod" },
  "table" : "adEvents",
  "database":"myDataBaseName",
  "selectQuery" : "select * from #{table} where eventTime >= '#{@scheduledStartTime.format('YYYY-MM-dd HH:mm:ss')}' and eventTime < '#{@scheduledEndTime.format('YYYY-MM-dd HH:mm:ss')}'",
  "precondition" : { "ref" : "Ready" }
}
```

## Sintaksis
<a name="sql-data-node-slots"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| tabel | Nama tabel dalam basis data SQL. | String | 

 


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Pengguna harus menentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi ketergantungan untuk objek ini. Pengguna dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan “jadwal”: \$1"ref”: "“\$1. DefaultSchedule Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), pengguna dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html) | Objek Referensi, misalnya “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| createTableSql | SQL membuat ekspresi tabel yang menciptakan tabel. | String | 
| basis data | Nama basis data. | Objek Referensi, misalnya “database”: \$1"ref”:” myDatabaseId “\$1 | 
| dependsOn | Menentukan dependensi pada objek yang bisa dijalankan lainnya. | Objek Referensi, misalnya “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| insertQuery | Sebuah pernyataan SQL untuk memasukkan data ke dalam tabel. | String | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| runsOn | Sumber daya komputasi untuk menjalankan aktivitas atau perintah. Misalnya, instans Amazon EC2 atau klaster Amazon EMR. | Objek Referensi, misalnya “RunsOn”: \$1"ref”:” “\$1 myResourceId | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Penjadwalan Gaya Deret Waktu berarti instans dijadwalkan pada akhir setiap interval dan Penjadwalan Gaya Cron berarti intans dijadwalkan pada awal setiap interval. Jadwal sesuai permintaan mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal sesuai permintaan itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan saluran pipa sesuai permintaan, Anda cukup memanggil ActivatePipeline operasi untuk setiap proses berikutnya. Nilai adalah: cron, ondemand, dan timeseries. | Pencacahan | 
| schemaName | Nama skema yang memegang tabel | String | 
| selectQuery | Sebuah pernyataan SQL untuk mengambil data dari tabel. | String | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup diabaikan. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk objek | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

## Lihat Juga
<a name="sql-data-node-see-also"></a>
+ [S3 DataNode](dp-object-s3datanode.md)

# Aktivitas
<a name="dp-object-activities"></a>

Berikut ini adalah objek AWS Data Pipeline aktivitas:

**Topics**
+ [CopyActivity](dp-object-copyactivity.md)
+ [EmrActivity](dp-object-emractivity.md)
+ [HadoopActivity](dp-object-hadoopactivity.md)
+ [HiveActivity](dp-object-hiveactivity.md)
+ [HiveCopyActivity](dp-object-hivecopyactivity.md)
+ [PigActivity](dp-object-pigactivity.md)
+ [RedshiftCopyActivity](dp-object-redshiftcopyactivity.md)
+ [ShellCommandActivity](dp-object-shellcommandactivity.md)
+ [SqlActivity](dp-object-sqlactivity.md)

# CopyActivity
<a name="dp-object-copyactivity"></a>

Menyalin data dari satu lokasi ke lokasi lain. `CopyActivity`mendukung [S3 DataNode](dp-object-s3datanode.md) dan [SqlDataNode](dp-object-sqldatanode.md) sebagai input dan output dan operasi penyalinan biasanya dilakukan record-by-record. Namun, `CopyActivity` menyediakan performa tinggi Amazon S3 untuk salinan Amazon S3 ketika semua syarat berikut terpenuhi:
+ Input dan outputnya adalah S3 DataNodes
+ Bidang `dataFormat` adalah sama untuk input dan output

Jika Anda menyediakan file data terkompresi sebagai input dan tidak menunjukkan ini menggunakan bidang `compression` pada simpul data S3, `CopyActivity` mungkin gagal. Dalam kasus ini, `CopyActivity` tidak mendeteksi dengan benar akhir karakter catatan dan operasi gagal. Selanjutnya, `CopyActivity` mendukung penyalinan dari direktori ke direktori lain dan menyalin file ke direktori, tetapi record-by-record salinan terjadi ketika menyalin direktori ke file. Akhirnya, `CopyActivity` tidak men-support penyalinan file Amazon S3 multibagian. 

`CopyActivity` memiliki keterbatasan khusus untuk support CSV nya. Saat Anda menggunakan S3 DataNode sebagai masukan`CopyActivity`, Anda hanya dapat menggunakan Unix/Linux varian format file data CSV untuk bidang input dan output Amazon S3. Unix/Linux Varian membutuhkan yang berikut: 
+ Pemisah harus karakter "," (koma).
+ Catatan tidak dikutip.
+ Karakter escape default adalah nilai ASCII 92 (backslash).
+ Akhir dari pengidentifikasi catatan adalah nilai ASCII 10 (atau "\$1n").

Sistem berbasis Windows biasanya menggunakan urutan end-of-record karakter yang berbeda: carriage return dan line feed bersama-sama (nilai ASCII 13 dan nilai ASCII 10). Anda harus mengakomodasi perbedaan ini menggunakan mekanisme tambahan, seperti skrip pra-copy untuk memodifikasi input data, untuk memastikan bahwa `CopyActivity` dapat mendeteksi akhir dari sebuah catatan dengan benar; jika tidak, `CopyActivity` akan gagal berulang kali.

Saat menggunakan `CopyActivity` untuk mengekspor dari objek PostgreSQL RDS ke format data TSV, karakter NULL default adalah \$1n.

## Contoh
<a name="copyactivity-example"></a>

Berikut adalah contoh dari jenis objek ini. Objek ini mereferensikan tiga objek lain yang akan Anda tetapkan dalam file definisi alur yang sama. `CopyPeriod` adalah objek `Schedule` dan `InputData` dan `OutputData` adalah objek simpul data.

```
{
  "id" : "S3ToS3Copy",
  "type" : "CopyActivity",
  "schedule" : { "ref" : "CopyPeriod" },
  "input" : { "ref" : "InputData" },
  "output" : { "ref" : "OutputData" },
  "runsOn" : { "ref" : "MyEc2Resource" }
}
```

## Sintaksis
<a name="copyactivity-syntax"></a>


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Pengguna harus menentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi ketergantungan untuk objek ini. Pengguna dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan “jadwal”: \$1"ref”: "“\$1. DefaultSchedule Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), pengguna dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html) | Objek Referensi, misalnya “schedule”: \$1"ref”:” myScheduleId “\$1 | 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| runsOn | Sumber daya komputasi untuk menjalankan aktivitas atau perintah. Misalnya, instans Amazon EC2 atau klaster Amazon EMR. | Objek Referensi, misalnya “RunsOn”: \$1"ref”:” “\$1 myResourceId | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup diabaikan. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| dependsOn | Tentukan dependensi pada objek yang bisa dijalankan lainnya. | Objek Referensi, misalnya “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| input | Sumber data input. | Objek Referensi, misalnya “input”: \$1"ref”:” myDataNode Id "\$1 | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| output | Sumber data output. | Objek Referensi, misalnya “output”: \$1"ref”:” myDataNode Id "\$1 | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Penjadwalan Gaya Deret Waktu berarti instans dijadwalkan pada akhir setiap interval dan Penjadwalan Gaya Cron berarti intans dijadwalkan pada awal setiap interval. Jadwal sesuai permintaan mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal sesuai permintaan itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan saluran pipa sesuai permintaan, Anda cukup memanggil ActivatePipeline operasi untuk setiap proses berikutnya. Nilai adalah: cron, ondemand, dan timeseries. | Pencacahan | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai ketergantungan tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk objek | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

## Lihat Juga
<a name="copyactivity-seealso"></a>
+ [ShellCommandActivity](dp-object-shellcommandactivity.md)
+ [EmrActivity](dp-object-emractivity.md)
+ [Ekspor Data MySQL ke Amazon S3 Menggunakan AWS Data Pipeline](dp-copydata-mysql.md)

# EmrActivity
<a name="dp-object-emractivity"></a>

 Menjalankan klaster EMR. 

AWS Data Pipeline menggunakan format yang berbeda untuk langkah-langkah dari Amazon EMR; misalnya, AWS Data Pipeline menggunakan argumen yang dipisahkan koma setelah nama JAR di bidang langkah. `EmrActivity` Contoh berikut menunjukkan langkah yang diformat untuk Amazon EMR, diikuti oleh AWS Data Pipeline nya yang setara:

```
s3://amzn-s3-demo-bucket/MyWork.jar arg1 arg2 arg3
```

```
"s3://amzn-s3-demo-bucket/MyWork.jar,arg1,arg2,arg3"
```

## Contoh
<a name="emractivity-example"></a>

Berikut adalah contoh dari jenis objek ini. Contoh ini menggunakan versi lama Amazon EMR. Verifikasi contoh ini untuk kebenaran dengan versi klaster Amazon EMR yang Anda gunakan. 

Objek ini mereferensikan tiga objek lain yang akan Anda tetapkan dalam file definisi alur yang sama. `MyEmrCluster` adalah objek `EmrCluster` dan `MyS3Input` dan `MyS3Output` adalah objek `S3DataNode`. 

**catatan**  
Dalam contoh ini, Anda dapat mengganti bidang `step` dengan rangkaian klaster yang Anda inginkan, yang bisa saja script Pig, klaster Hadoop streaming, JAR kustom Anda sendiri termasuk parameternya, atau sebagainya.

Hadoop 2.x (AMI 3.x)

```
{
  "id" : "MyEmrActivity",
  "type" : "EmrActivity",
  "runsOn" : { "ref" : "MyEmrCluster" },
  "preStepCommand" : "scp remoteFiles localFiles",
  "step" : ["s3://amzn-s3-demo-bucket/myPath/myStep.jar,firstArg,secondArg,-files,s3://amzn-s3-demo-bucket/myPath/myFile.py,-input,s3://myinputbucket/path,-output,s3://myoutputbucket/path,-mapper,myFile.py,-reducer,reducerName","s3://amzn-s3-demo-bucket/myPath/myotherStep.jar,..."],
  "postStepCommand" : "scp localFiles remoteFiles",
  "input" : { "ref" : "MyS3Input" },
  "output" : { "ref" : "MyS3Output" }
}
```

**catatan**  
Untuk melewati argumen untuk aplikasi dalam langkah, Anda perlu menentukan Wilayah di jalur script, seperti dalam contoh berikut. Selain itu, Anda mungkin perlu melarikan diri dari argumen yang Anda lewati. Misalnya, jika Anda menggunakan `script-runner.jar` untuk menjalankan script dan ingin melewatkan argumen ke script, Anda harus melarikan diri koma yang memisahkan mereka. Slot langkah berikut menggambarkan cara melakukannya:   

```
"step" : "s3://eu-west-1.elasticmapreduce/libs/script-runner/script-runner.jar,s3://datapipeline/echo.sh,a\\\\,b\\\\,c"
```
Langkah ini menggunakan `script-runner.jar` untuk menjalankan shell script `echo.sh` dan melewati `a`, `b`, dan `c` sebagai argumen tunggal untuk script. Karakter escape pertama dihapus dari argumen yang dihasilkan sehingga Anda mungkin perlu untuk melarikan diri lagi. Misalnya, jika Anda memiliki `File\.gz` sebagai sebuah argumen di JSON, anda bisa meloloskan diri menggunakan `File\\\\.gz`. Namun, karena escape pertama dibuang, Anda harus menggunakan `File\\\\\\\\.gz `.

## Sintaksis
<a name="emractivity-syntax"></a>


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Tentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi dependensi untuk objek ini. Anda dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan "schedule": \$1"ref": "DefaultSchedule"\$1. Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), Anda dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html) | Objek Referensi, misalnya, “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| runsOn | Klaster Amazon EMR di mana tugas ini akan berjalan. | Objek Referensi, misalnya, “RunsOn”: \$1"ref”:” myEmrCluster Id "\$1 | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup akan diabaikan. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel, maka aktivitas jarak jauh yang tidak lengkap dalam waktu mulai yang ditetapkan mungkin dicoba lagi. | Periode | 
| dependsOn | Tentukan dependensi pada objek yang bisa dijalankan lainnya. | Objek Referensi, misalnya, “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| input | Lokasi data input. | Objek Referensi, misalnya, “input”: \$1"ref”:” myDataNode Id "\$1 | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum upaya mencoba ulang pada kegagalan. | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya, “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya, "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya, “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| output | Lokasi data output. | Objek Referensi, misalnya, “output”: \$1"ref”:” myDataNode Id "\$1 | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya, “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI Amazon S3, seperti 's3://BucketName/Prefix/ 'untuk mengunggah log untuk pipeline. | String | 
| postStepCommand | Shell script untuk dijalankan setelah semua langkah selesai. Untuk menentukan beberapa script, hingga 255, menambahkan beberapa bidang postStepCommand. | String | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya, “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| preStepCommand | Shell script untuk dijalankan sebelum langkah-langkah dijalankan. Untuk menentukan beberapa script, hingga 255, menambahkan beberapa bidang preStepCommand. | String | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| resizeClusterBeforeBerlari |  Mengubah ukuran klaster sebelum melakukan aktivitas ini untuk mengakomodasi tabel DynamoDB ditentukan sebagai input atau output.   Jika Anda `EmrActivity` menggunakan `DynamoDBDataNode` sebagai node data input atau output, dan jika Anda mengatur `resizeClusterBeforeRunning` ke`TRUE`, AWS Data Pipeline mulai menggunakan tipe `m3.xlarge` instance. Ini akan menimpa pilihan tipe instans Anda dengan `m3.xlarge`, yang dapat menambah biaya bulanan Anda.   | Boolean | 
| resizeClusterMaxContoh | Batas pada jumlah maksimum instans yang dapat diminta oleh algoritme resize. | Bilangan Bulat | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval, atau akhir interval. Nilai adalah: cron, ondemand, dan timeseries. Penjadwalan timeseries berarti bahwa instans dijadwalkan pada akhir setiap interval. Penjadwalan cron berarti bahwa instans dijadwalkan pada awal setiap interval. Jadwal ondemand mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal ondemand itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan alur ondemand, panggil operasi ActivatePipeline untuk setiap putaran berikutnya.  | Pencacahan | 
| langkah | Satu atau lebih langkah untuk klaster untuk menjalankan. Untuk menentukan beberapa langkah, hingga 255, menambahkan beberapa bidang langkah. Gunakan argumen yang dipisahkan dengan koma setelah nama JAR; misalnya, "s3://amzn-s3-demo-bucket/MyWork.jar,arg1,arg2,arg3". | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya, "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah Amazon EMR tersedia hanya pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan akhir waktu untuk objek. | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur tempat objek dibuat. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya, “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

## Lihat Juga
<a name="emractivity-seealso"></a>
+ [ShellCommandActivity](dp-object-shellcommandactivity.md)
+ [CopyActivity](dp-object-copyactivity.md)
+ [EmrCluster](dp-object-emrcluster.md)

# HadoopActivity
<a name="dp-object-hadoopactivity"></a>

 Menjalankan MapReduce pekerjaan di cluster. Cluster dapat berupa cluster EMR yang dikelola oleh AWS Data Pipeline atau sumber daya lain jika Anda menggunakannya. TaskRunner Gunakan HadoopActivity saat Anda ingin menjalankan pekerjaan secara paralel. Ini memungkinkan Anda untuk menggunakan sumber penjadwalan kerangka YARN atau negosiator MapReduce sumber daya di Hadoop 1. Jika Anda ingin menjalankan pekerjaan secara berurutan menggunakan tindakan Langkah Amazon EMR, Anda masih dapat menggunakan [EmrActivity](dp-object-emractivity.md).

## Contoh
<a name="hadoopactivity-example"></a>

**HadoopActivity menggunakan cluster EMR yang dikelola oleh AWS Data Pipeline**  
 HadoopActivity Objek berikut menggunakan EmrCluster sumber daya untuk menjalankan program:

```
 {
   "name": "MyHadoopActivity",
   "schedule": {"ref": "ResourcePeriod"},
   "runsOn": {"ref": “MyEmrCluster”},
   "type": "HadoopActivity",
   "preActivityTaskConfig":{"ref":"preTaskScriptConfig”},   
   "jarUri": "/home/hadoop/contrib/streaming/hadoop-streaming.jar",
   "argument": [
     "-files",
     “s3://elasticmapreduce/samples/wordcount/wordSplitter.py“,
     "-mapper",
     "wordSplitter.py",
     "-reducer",
     "aggregate",
     "-input",
     "s3://elasticmapreduce/samples/wordcount/input/",
     "-output",
     “s3://amzn-s3-demo-bucket/MyHadoopActivity/#{@pipelineId}/#{format(@scheduledStartTime,'YYYY-MM-dd')}"
   ],
   "maximumRetries": "0",
   "postActivityTaskConfig":{"ref":"postTaskScriptConfig”},
   "hadoopQueue" : “high”
 }
```

Berikut adalah yang sesuai*MyEmrCluster*, yang mengonfigurasi FairScheduler dan antrian di YARN untuk berbasis Hadoop 2: AMIs

```
{
  "id" : "MyEmrCluster",
  "type" : "EmrCluster",
   "hadoopSchedulerType" : "PARALLEL_FAIR_SCHEDULING",
  “amiVersion” : “3.7.0”,
  "bootstrapAction" : ["s3://Region.elasticmapreduce/bootstrap-actions/configure-hadoop,-z,yarn.scheduler.capacity.root.queues=low\,high\,default,-z,yarn.scheduler.capacity.root.high.capacity=50,-z,yarn.scheduler.capacity.root.low.capacity=10,-z,yarn.scheduler.capacity.root.default.capacity=30”]
}
```

Ini adalah yang EmrCluster Anda gunakan untuk mengkonfigurasi FairScheduler di Hadoop 1:

```
{
      "id": "MyEmrCluster",
      "type": "EmrCluster",    
      "hadoopSchedulerType": "PARALLEL_FAIR_SCHEDULING",
      "amiVersion": "2.4.8",
      "bootstrapAction": "s3://Region.elasticmapreduce/bootstrap-actions/configure-hadoop,-m,mapred.queue.names=low\\\\,high\\\\,default,-m,mapred.fairscheduler.poolnameproperty=mapred.job.queue.name"
          }
```

Berikut ini EmrCluster mengkonfigurasi CapacityScheduler untuk berbasis Hadoop 2: AMIs

```
{
      "id": "MyEmrCluster",
      "type": "EmrCluster",
      "hadoopSchedulerType": "PARALLEL_CAPACITY_SCHEDULING",
      "amiVersion": "3.7.0",
      "bootstrapAction": "s3://Region.elasticmapreduce/bootstrap-actions/configure-hadoop,-z,yarn.scheduler.capacity.root.queues=low\\\\,high,-z,yarn.scheduler.capacity.root.high.capacity=40,-z,yarn.scheduler.capacity.root.low.capacity=60"
    }
```

**HadoopActivity menggunakan cluster EMR yang ada**  
Dalam contoh ini, Anda menggunakan workergroups dan a TaskRunner untuk menjalankan program pada cluster EMR yang ada. Definisi pipeline berikut digunakan HadoopActivity untuk: 
+ Jalankan MapReduce program hanya pada *myWorkerGroup* sumber daya. Untuk informasi selengkapnya tentang grup pekerja, lihat [Menjalankan Pekerjaan pada Sumber Daya yang Ada Menggunakan Runner Tugas](dp-how-task-runner-user-managed.md).
+ Jalankan preActivityTask Config dan Config postActivityTask

```
{
  "objects": [
    {
      "argument": [
        "-files",
        "s3://elasticmapreduce/samples/wordcount/wordSplitter.py",
        "-mapper",
        "wordSplitter.py",
        "-reducer",
        "aggregate",
        "-input",
        "s3://elasticmapreduce/samples/wordcount/input/",
        "-output",
        "s3://amzn-s3-demo-bucket/MyHadoopActivity/#{@pipelineId}/#{format(@scheduledStartTime,'YYYY-MM-dd')}"
      ],
      "id": "MyHadoopActivity",
      "jarUri": "/home/hadoop/contrib/streaming/hadoop-streaming.jar",
      "name": "MyHadoopActivity",
      "type": "HadoopActivity"
    },
    {
      "id": "SchedulePeriod",
      "startDateTime": "start_datetime",
      "name": "SchedulePeriod",
      "period": "1 day",
      "type": "Schedule",
      "endDateTime": "end_datetime"
    },
    {
      "id": "ShellScriptConfig",
      "scriptUri": "s3://amzn-s3-demo-bucket/scripts/preTaskScript.sh",
      "name": "preTaskScriptConfig",
      "scriptArgument": [
        "test",
        "argument"
      ],
      "type": "ShellScriptConfig"
    },
    {
      "id": "ShellScriptConfig",
      "scriptUri": "s3://amzn-s3-demo-bucket/scripts/postTaskScript.sh",
      "name": "postTaskScriptConfig",
      "scriptArgument": [
        "test",
        "argument"
      ],
      "type": "ShellScriptConfig"
    },
    {
      "id": "Default",
      "scheduleType": "cron",
      "schedule": {
        "ref": "SchedulePeriod"
      },
      "name": "Default",
      "pipelineLogUri": "s3://amzn-s3-demo-bucket/logs/2015-05-22T18:02:00.343Z642f3fe415",
      "maximumRetries": "0",    
      "workerGroup": "myWorkerGroup",
      "preActivityTaskConfig": {
        "ref": "preTaskScriptConfig"
      },
      "postActivityTaskConfig": {
        "ref": "postTaskScriptConfig"
      }    
    }
  ] 
}
```

## Sintaksis
<a name="hadoopactivity-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jarUri | Lokasi JAR di Amazon S3 atau sistem file lokal cluster untuk dijalankan. HadoopActivity | String | 

 


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Pengguna harus menentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi ketergantungan untuk objek ini. Pengguna dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan “jadwal”: \$1"ref”: "“\$1. DefaultSchedule Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), pengguna dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html) | Objek Referensi, misalnya “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| runsOn | Klaster EMR di mana tugas ini akan berjalan. | Objek Referensi, misalnya “RunSon”: \$1"ref”:” myEmrCluster Id "\$1 | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup diabaikan. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| argumen | Argumen untuk diteruskan ke JAR. | String | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| dependsOn | Tentukan dependensi pada objek yang bisa dijalankan lainnya. | Objek Referensi, misalnya “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| hadoopQueue | Nama antrean penjadwal Hadoop tempat aktivitas akan dikirimkan. | String | 
| input | Lokasi data input. | Objek Referensi, misalnya “input”: \$1"ref”:” myDataNode Id "\$1 | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| mainClass | Kelas utama JAR Anda mengeksekusi dengan HadoopActivity. | String | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| output | Lokasi data output. | Objek Referensi, misalnya “output”: \$1"ref”:” myDataNode Id "\$1 | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| postActivityTaskConfig | Script konfigurasi post-activity yang akan dijalankan. Ini terdiri dari URI shell script di Amazon S3 dan daftar argumen. | Objek Referensi, misalnya "postActivityTaskConfig”: \$1"ref”:” “\$1 myShellScript ConfigId | 
| preActivityTaskConfig | Script konfigurasi post-activity yang akan dijalankan. Ini terdiri dari URI shell script di Amazon S3 dan daftar argumen. | Objek Referensi, misalnya "preActivityTaskConfig”: \$1"ref”:” “\$1 myShellScript ConfigId | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Penjadwalan Gaya Deret Waktu berarti instans dijadwalkan pada akhir setiap interval dan Penjadwalan Gaya Cron berarti intans dijadwalkan pada awal setiap interval. Jadwal sesuai permintaan mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal sesuai permintaan itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan saluran pipa sesuai permintaan, Anda cukup memanggil ActivatePipeline operasi untuk setiap proses berikutnya. Nilai adalah: cron, ondemand, dan timeseries. | Pencacahan | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk objek | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

## Lihat Juga
<a name="hadoopactivity-seealso"></a>
+ [ShellCommandActivity](dp-object-shellcommandactivity.md)
+ [CopyActivity](dp-object-copyactivity.md)
+ [EmrCluster](dp-object-emrcluster.md)

# HiveActivity
<a name="dp-object-hiveactivity"></a>

Menjalankan kueri Hive pada klaster EMR. `HiveActivity` membuatnya lebih mudah untuk mengatur aktivitas Amazon EMR dan secara otomatis membuat tabel Hive berdasarkan input data yang datang baik dari Amazon S3 atau Amazon RDS. Yang perlu Anda tentukan adalah HiveQL untuk dijalankan pada data sumber. AWS Data Pipeline secara otomatis membuat tabel Hive dengan `${input1}``${input2}`,, dan seterusnya, berdasarkan bidang input dalam `HiveActivity` objek. 

Untuk input Amazon S3, bidang `dataFormat` digunakan untuk membuat nama kolom Hive. 

Untuk input MySQL (Amazon RDS), nama kolom untuk kueri SQL digunakan untuk membuat nama kolom Hive.

**catatan**  
Aktivitas ini menggunakan Hive [CSV Serde](https://cwiki.apache.org/confluence/display/Hive/CSV+Serde).

## Contoh
<a name="hiveactivity-example"></a>

Berikut adalah contoh dari jenis objek ini. Objek ini mereferensikan tiga objek lain yang akan Anda tetapkan dalam file definisi alur yang sama. `MySchedule` adalah objek `Schedule` dan `MyS3Input` dan `MyS3Output` adalah objek simpul data.

```
{
  "name" : "ProcessLogData",
  "id" : "MyHiveActivity",
  "type" : "HiveActivity",
  "schedule" : { "ref": "MySchedule" },
  "hiveScript" : "INSERT OVERWRITE TABLE ${output1} select host,user,time,request,status,size from ${input1};",
  "input" : { "ref": "MyS3Input" },
  "output" : { "ref": "MyS3Output" },
  "runsOn" : { "ref": "MyEmrCluster" }
}
```

## Sintaksis
<a name="hiveactivity-syntax"></a>


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Tentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi dependensi untuk objek ini. Anda dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan “jadwal”: \$1"ref”: "“\$1. DefaultSchedule Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), Anda dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html). | Objek Referensi, misalnya “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| hiveScript | Script Hive untuk dijalankan. | String | 
| scriptUri | Lokasi script Hive untuk menjalankan (misalnya, s3://scriptLocation). | String | 

 


****  

| Grup yang Diperlukan | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| runsOn | Klaster EMR tempat HiveActivity ini berjalan. | Objek Referensi, misalnya “RunSon”: \$1"ref”:” myEmrCluster Id "\$1 | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup akan diabaikan. | String | 
| input | Sumber data input. | Objek Referensi, seperti “input”: \$1"ref”:” myDataNode Id "\$1 | 
| output | Sumber data output. | Objek Referensi, seperti “output”: \$1"ref”:” myDataNode Id "\$1 | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel, maka aktivitas jarak jauh yang tidak lengkap dalam waktu mulai yang ditetapkan mungkin dicoba lagi. | Periode | 
| dependsOn | Tentukan dependensi pada objek yang bisa dijalankan lainnya. | Objek Referensi, seperti “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| hadoopQueue | Nama antrean penjadwal Hadoop tempat tugas akan dikirimkan. | String | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum upaya mencoba ulang pada kegagalan. | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, seperti “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, seperti "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, seperti “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, seperti “parent”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| postActivityTaskConfig | Script konfigurasi post-activity yang akan dijalankan. Ini terdiri dari URI shell script di Amazon S3 dan daftar argumen. | Objek Referensi, seperti "postActivityTaskConfig”: \$1"ref”:” “\$1 myShellScript ConfigId | 
| preActivityTaskConfig | Script konfigurasi post-activity yang akan dijalankan. Ini terdiri dari URI shell script di Amazon S3 dan daftar argumen. | Objek Referensi, seperti "preActivityTaskConfig”: \$1"ref”:” “\$1 myShellScript ConfigId | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, seperti “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| reportProgressTimeout | Timeout untuk panggilan berurutan kerja jarak jauh ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| resizeClusterBeforeBerlari | Mengubah ukuran klaster sebelum melakukan aktivitas ini untuk mengakomodasi simpul data DynamoDB ditentukan sebagai input atau output.  Jika aktivitas Anda menggunakan node data input atau output, dan jika Anda menyetelnya `resizeClusterBeforeRunning``TRUE`, AWS Data Pipeline mulailah menggunakan tipe `m3.xlarge` instance. `DynamoDBDataNode` Ini akan menimpa pilihan tipe instans Anda dengan `m3.xlarge`, yang dapat menambah biaya bulanan Anda.  | Boolean | 
| resizeClusterMaxContoh | Batas pada jumlah maksimum instans yang dapat diminta oleh algoritme resize. | Bilangan Bulat | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Penjadwalan Gaya Deret Waktu berarti instans dijadwalkan pada akhir setiap interval dan Penjadwalan Gaya Cron berarti intans dijadwalkan pada awal setiap interval. Jadwal sesuai permintaan mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal sesuai permintaan itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan saluran pipa sesuai permintaan, Anda cukup memanggil ActivatePipeline operasi untuk setiap proses berikutnya. Nilai adalah: cron, ondemand, dan timeseries. | Pencacahan | 
| scriptVariable | Menentukan variabel script untuk Amazon EMR untuk diteruskan ke Hive saat menjalankan script. Sebagai contoh, variabel script contoh berikut akan melewati SAMPLE dan variabel FILTER\$1DATE ke Hive :SAMPLE=s3://elasticmapreduce/samples/hive-ads dan FILTER\$1DATE=\$1\$1format(@scheduledStartTime,'YYYY-MM-dd')\$1%. Bidang ini menerima beberapa nilai dan bekerja dengan bidang script dan scriptUri. Selain itu, fungsi scriptVariable terlepas dari apakah stage diatur ke true atau false. Bidang ini sangat berguna untuk mengirim nilai-nilai dinamis untuk Hive menggunakan ekspresi dan fungsi AWS Data Pipeline . | String | 
| stage | Menentukan apakah staging diaktifkan sebelum atau setelah menjalankan script. Tidak diizinkan dengan Hive 11, jadi gunakan Amazon EMR AMI versi 3.2.0 atau lebih besar. | Boolean | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, seperti “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, seperti "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Langkah log Amazon EMR tersedia hanya pada upaya aktivitas EMR. | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk sebuah objek. | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk sebuah objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, seperti “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

## Lihat Juga
<a name="hiveactivity-seealso"></a>
+ [ShellCommandActivity](dp-object-shellcommandactivity.md)
+ [EmrActivity](dp-object-emractivity.md)

# HiveCopyActivity
<a name="dp-object-hivecopyactivity"></a>

Menjalankan kueri Hive pada klaster EMR. `HiveCopyActivity` membuatnya lebih mudah untuk menyalin data antara tabel DynamoDB. `HiveCopyActivity` menerima pernyataan HiveQL untuk mem-filter data input dari DynamoDB di kolom dan baris tingkat.

## Contoh
<a name="hivecopyactivity-example"></a>

Contoh berikut menunjukkan cara menggunakan `HiveCopyActivity` dan `DynamoDBExportDataFormat` untuk menyalin data dari satu `DynamoDBDataNode` ke yang lain, sementara mem-filter data, berdasarkan stempel waktu.

```
{
  "objects": [
    {
      "id" : "DataFormat.1",
      "name" : "DataFormat.1",
      "type" : "DynamoDBExportDataFormat",
      "column" : "timeStamp BIGINT"
    },
    {
      "id" : "DataFormat.2",
      "name" : "DataFormat.2",
      "type" : "DynamoDBExportDataFormat"
    },
    {
      "id" : "DynamoDBDataNode.1",
      "name" : "DynamoDBDataNode.1",
      "type" : "DynamoDBDataNode",
      "tableName" : "item_mapped_table_restore_temp",
      "schedule" : { "ref" : "ResourcePeriod" },
      "dataFormat" : { "ref" : "DataFormat.1" }
    },
    {
      "id" : "DynamoDBDataNode.2",
      "name" : "DynamoDBDataNode.2",
      "type" : "DynamoDBDataNode",
      "tableName" : "restore_table",
      "region" : "us_west_1",
      "schedule" : { "ref" : "ResourcePeriod" },
      "dataFormat" : { "ref" : "DataFormat.2" }
    },
    {
      "id" : "EmrCluster.1",
      "name" : "EmrCluster.1",
      "type" : "EmrCluster",
      "schedule" : { "ref" : "ResourcePeriod" },
      "masterInstanceType" : "m1.xlarge",
      "coreInstanceCount" : "4"
    },
    {
      "id" : "HiveTransform.1",
      "name" : "Hive Copy Transform.1",
      "type" : "HiveCopyActivity",
      "input" : { "ref" : "DynamoDBDataNode.1" },
      "output" : { "ref" : "DynamoDBDataNode.2" },
      "schedule" :{ "ref" : "ResourcePeriod" },
      "runsOn" : { "ref" : "EmrCluster.1" },
      "filterSql" : "`timeStamp` > unix_timestamp(\"#{@scheduledStartTime}\", \"yyyy-MM-dd'T'HH:mm:ss\")"
    },
    {
      "id" : "ResourcePeriod",
      "name" : "ResourcePeriod",
      "type" : "Schedule",
      "period" : "1 Hour",
      "startDateTime" : "2013-06-04T00:00:00",
      "endDateTime" : "2013-06-04T01:00:00"
    }
  ]
}
```

## Sintaksis
<a name="hivecopyactivity-syntax"></a>


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Pengguna harus menentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi ketergantungan untuk objek ini. Pengguna dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan “jadwal”: \$1"ref”: "“\$1. DefaultSchedule Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), pengguna dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html) | Objek Referensi, misalnya “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| runsOn | Tentukan klaster untuk dijalankan. | Objek Referensi, misalnya “RunsOn”: \$1"ref”:” “\$1 myResourceId | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup akan diabaikan. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Status yang paling baru dilaporkan dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel, maka aktivitas jarak jauh yang tidak lengkap dalam waktu mulai yang ditetapkan mungkin dicoba lagi. | Periode | 
| dependsOn | Menentukan dependensi pada objek yang bisa dijalankan lainnya. | Objek Referensi, misalnya “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| filterSQL | Sebuah fragmen pernyataan Hive SQL yang mem-filter subset dari data DynamoDB atau Amazon S3 untuk menyalin. Filter seharusnya hanya berisi predikat dan tidak dimulai dengan WHERE klausa, karena AWS Data Pipeline menambahkannya secara otomatis. | String | 
| input | Sumber data input. Ini harus menjadi S3DataNode atau DynamoDBDataNode. Jika Anda menggunakan DynamoDBNode, tentukan DynamoDBExportDataFormat. | Objek Referensi, misalnya “input”: \$1"ref”:” myDataNode Id "\$1 | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Upaya jumlah maksimum mencoba lagi pada kegagalan. | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| output | Sumber data output. Jika input adalah S3DataNode, ini harus DynamoDBDataNode. Jika tidak, ini bisa S3DataNode atau DynamoDBDataNode. Jika Anda menggunakan DynamoDBNode, tentukan DynamoDBExportDataFormat. | Objek Referensi, misalnya “output”: \$1"ref”:” myDataNode Id "\$1 | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | Amazon S3 URI, seperti  's3://BucketName/Key/', untuk unggah log untuk alur. | String | 
| postActivityTaskConfig | Script konfigurasi post-activity yang akan dijalankan. Ini terdiri dari URI shell script di Amazon S3 dan daftar argumen. | Objek Referensi, misalnya "postActivityTaskConfig”: \$1"ref”:” “\$1 myShellScript ConfigId | 
| preActivityTaskConfig | Script konfigurasi pre-activity yang akan dijalankan. Ini terdiri dari URI shell script di Amazon S3 dan daftar argumen. | Objek Referensi, misalnya "preActivityTaskConfig”: \$1"ref”:” “\$1 myShellScript ConfigId | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| resizeClusterBeforeBerlari | Mengubah ukuran klaster sebelum melakukan aktivitas ini untuk mengakomodasi simpul data DynamoDB ditentukan sebagai input atau output.  Jika aktivitas Anda menggunakan node data input atau output, dan jika Anda menyetelnya `resizeClusterBeforeRunning``TRUE`, AWS Data Pipeline mulailah menggunakan tipe `m3.xlarge` instance. `DynamoDBDataNode` Ini akan menimpa pilihan tipe instans Anda dengan `m3.xlarge`, yang dapat menambah biaya bulanan Anda.  | Boolean | 
| resizeClusterMaxContoh | Batas pada jumlah maksimum instans yang dapat diminta oleh algoritme resize | Bilangan Bulat | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Penjadwalan Gaya Deret Waktu berarti instans dijadwalkan pada akhir setiap interval dan Penjadwalan Gaya Cron berarti intans dijadwalkan pada awal setiap interval. Jadwal sesuai permintaan mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal sesuai permintaan itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan saluran pipa sesuai permintaan, Anda cukup memanggil ActivatePipeline operasi untuk setiap proses berikutnya. Nilai adalah: cron, ondemand, dan timeseries. | Pencacahan | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Langkah log Amazon EMR tersedia hanya pada upaya aktivitas EMR. | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan akhir waktu untuk objek. | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Object. | String | 

## Lihat Juga
<a name="hivecopyactivity-seealso"></a>
+ [ShellCommandActivity](dp-object-shellcommandactivity.md)
+ [EmrActivity](dp-object-emractivity.md)

# PigActivity
<a name="dp-object-pigactivity"></a>

PigActivity memberikan dukungan asli untuk skrip Babi AWS Data Pipeline tanpa persyaratan untuk menggunakan `ShellCommandActivity` atau`EmrActivity`. Selain itu, PigActivity mendukung pementasan data. Ketika bidang stage diatur ke BETUL, AWS Data Pipeline men-stage data input sebagai skema di Pig tanpa kode tambahan dari pengguna. 

## Contoh
<a name="pigactivity-example"></a>

Contoh alur berikut menunjukkan cara menggunakan `PigActivity`. Contoh alur melakukan langkah-langkah berikut:
+ MyPigActivity1 memuat data dari Amazon S3 dan menjalankan skrip Babi yang memilih beberapa kolom data dan mengunggahnya ke Amazon S3.
+ MyPigActivity2 memuat output pertama, memilih beberapa kolom dan tiga baris data, dan mengunggahnya ke Amazon S3 sebagai output kedua.
+ MyPigActivity3 memuat data output kedua, menyisipkan dua baris data dan hanya kolom bernama “kelima” ke Amazon RDS.
+ MyPigActivity4 memuat data Amazon RDS, memilih baris pertama data, dan mengunggahnya ke Amazon S3.

```
{
  "objects": [
    {
      "id": "MyInputData1",
      "schedule": {
        "ref": "MyEmrResourcePeriod"
      },
      "directoryPath": "s3://amzn-s3-demo-bucket/pigTestInput",
      "name": "MyInputData1",
      "dataFormat": {
        "ref": "MyInputDataType1"
      },
      "type": "S3DataNode"
    },
    {
      "id": "MyPigActivity4",
      "scheduleType": "CRON",
      "schedule": {
        "ref": "MyEmrResourcePeriod"
      },
      "input": {
        "ref": "MyOutputData3"
      },
      "pipelineLogUri": "s3://amzn-s3-demo-bucket/path/",
      "name": "MyPigActivity4",
      "runsOn": {
        "ref": "MyEmrResource"
      },
      "type": "PigActivity",
      "dependsOn": {
        "ref": "MyPigActivity3"
      },
      "output": {
        "ref": "MyOutputData4"
      },
      "script": "B = LIMIT ${input1} 1; ${output1} = FOREACH B GENERATE one;",
      "stage": "true"
    },
    {
      "id": "MyPigActivity3",
      "scheduleType": "CRON",
      "schedule": {
        "ref": "MyEmrResourcePeriod"
      },
      "input": {
        "ref": "MyOutputData2"
      },
      "pipelineLogUri": "s3://amzn-s3-demo-bucket/path",
      "name": "MyPigActivity3",
      "runsOn": {
        "ref": "MyEmrResource"
      },
      "script": "B = LIMIT ${input1} 2; ${output1} = FOREACH B GENERATE Fifth;",
      "type": "PigActivity",
      "dependsOn": {
        "ref": "MyPigActivity2"
      },
      "output": {
        "ref": "MyOutputData3"
      },
      "stage": "true"
    },
    {
      "id": "MyOutputData2",
      "schedule": {
        "ref": "MyEmrResourcePeriod"
      },
      "name": "MyOutputData2",
      "directoryPath": "s3://amzn-s3-demo-bucket/PigActivityOutput2",
      "dataFormat": {
        "ref": "MyOutputDataType2"
      },
      "type": "S3DataNode"
    },
    {
      "id": "MyOutputData1",
      "schedule": {
        "ref": "MyEmrResourcePeriod"
      },
      "name": "MyOutputData1",
      "directoryPath": "s3://amzn-s3-demo-bucket/PigActivityOutput1",
      "dataFormat": {
        "ref": "MyOutputDataType1"
      },
      "type": "S3DataNode"
    },
    {
      "id": "MyInputDataType1",
      "name": "MyInputDataType1",
      "column": [
        "First STRING",
        "Second STRING",
        "Third STRING",
        "Fourth STRING",
        "Fifth STRING",
        "Sixth STRING",
        "Seventh STRING",
        "Eighth STRING",
        "Ninth STRING",
        "Tenth STRING"
      ],
      "inputRegEx": "^(\\\\S+) (\\\\S+) (\\\\S+) (\\\\S+) (\\\\S+) (\\\\S+) (\\\\S+) (\\\\S+) (\\\\S+) (\\\\S+)",
      "type": "RegEx"
    },
    {
      "id": "MyEmrResource",
      "region": "us-east-1",
      "schedule": {
        "ref": "MyEmrResourcePeriod"
      },
      "keyPair": "example-keypair",
      "masterInstanceType": "m1.small",
      "enableDebugging": "true",
      "name": "MyEmrResource",
      "actionOnTaskFailure": "continue",
      "type": "EmrCluster"
    },
    {
      "id": "MyOutputDataType4",
      "name": "MyOutputDataType4",
      "column": "one STRING",
      "type": "CSV"
    },
    {
      "id": "MyOutputData4",
      "schedule": {
        "ref": "MyEmrResourcePeriod"
      },
      "directoryPath": "s3://amzn-s3-demo-bucket/PigActivityOutput3",
      "name": "MyOutputData4",
      "dataFormat": {
        "ref": "MyOutputDataType4"
      },
      "type": "S3DataNode"
    },
    {
      "id": "MyOutputDataType1",
      "name": "MyOutputDataType1",
      "column": [
        "First STRING",
        "Second STRING",
        "Third STRING",
        "Fourth STRING",
        "Fifth STRING",
        "Sixth STRING",
        "Seventh STRING",
        "Eighth STRING"
      ],
      "columnSeparator": "*",
      "type": "Custom"
    },
    {
      "id": "MyOutputData3",
      "username": "___",
      "schedule": {
        "ref": "MyEmrResourcePeriod"
      },
      "insertQuery": "insert into #{table} (one) values (?)",
      "name": "MyOutputData3",
      "*password": "___",
      "runsOn": {
        "ref": "MyEmrResource"
      },
      "connectionString": "jdbc:mysql://example-database-instance:3306/example-database",
      "selectQuery": "select * from #{table}",
      "table": "example-table-name",
      "type": "MySqlDataNode"
    },
    {
      "id": "MyOutputDataType2",
      "name": "MyOutputDataType2",
      "column": [
        "Third STRING",
        "Fourth STRING",
        "Fifth STRING",
        "Sixth STRING",
        "Seventh STRING",
        "Eighth STRING"
      ],
      "type": "TSV"
    },
    {
      "id": "MyPigActivity2",
      "scheduleType": "CRON",
      "schedule": {
        "ref": "MyEmrResourcePeriod"
      },
      "input": {
        "ref": "MyOutputData1"
      },
      "pipelineLogUri": "s3://amzn-s3-demo-bucket/path",
      "name": "MyPigActivity2",
      "runsOn": {
        "ref": "MyEmrResource"
      },
      "dependsOn": {
        "ref": "MyPigActivity1"
      },
      "type": "PigActivity",
      "script": "B = LIMIT ${input1} 3; ${output1} = FOREACH B GENERATE Third, Fourth, Fifth, Sixth, Seventh, Eighth;",
      "output": {
        "ref": "MyOutputData2"
      },
      "stage": "true"
    },
    {
      "id": "MyEmrResourcePeriod",
      "startDateTime": "2013-05-20T00:00:00",
      "name": "MyEmrResourcePeriod",
      "period": "1 day",
      "type": "Schedule",
      "endDateTime": "2013-05-21T00:00:00"
    },
    {
      "id": "MyPigActivity1",
      "scheduleType": "CRON",
      "schedule": {
        "ref": "MyEmrResourcePeriod"
      },
      "input": {
        "ref": "MyInputData1"
      },
      "pipelineLogUri": "s3://amzn-s3-demo-bucket/path",
      "scriptUri": "s3://amzn-s3-demo-bucket/script/pigTestScipt.q",
      "name": "MyPigActivity1",
      "runsOn": {
        "ref": "MyEmrResource"
      },
      "scriptVariable": [
        "column1=First",
        "column2=Second",
        "three=3"
      ],
      "type": "PigActivity",
      "output": {
        "ref": "MyOutputData1"
      },
      "stage": "true"
    }
  ]
}
```

Isi dari `pigTestScript.q` adalah sebagai berikut.

```
B = LIMIT ${input1} $three; ${output1} = FOREACH B GENERATE $column1, $column2, Third, Fourth, Fifth, Sixth, Seventh, Eighth;
```

## Sintaksis
<a name="pigactivity-syntax"></a>


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Pengguna harus menentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi ketergantungan untuk objek ini. Pengguna dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan “jadwal”: \$1"ref”: "“\$1. DefaultSchedule Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), pengguna dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html) | Objek Referensi, misalnya, “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| script | Script Pig yang akan dijalankan. | String | 
| scriptUri | Lokasi script Pig untuk menjalankan (misalnya, s3://scriptLocation). | String | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| runsOn | EMR Cluster tempat ini PigActivity berjalan. | Objek Referensi, misalnya, “RunsOn”: \$1"ref”:” myEmrCluster Id "\$1 | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup akan diabaikan. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Status yang paling baru dilaporkan dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel, maka aktivitas jarak jauh yang tidak lengkap dalam waktu mulai yang ditetapkan mungkin dicoba lagi. | Periode | 
| dependsOn | Menentukan dependensi pada objek yang bisa dijalankan lainnya. | Objek Referensi, misalnya, “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| input | Sumber data input. | Objek Referensi, misalnya, “input”: \$1"ref”:” myDataNode Id "\$1 | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Upaya jumlah maksimum mencoba lagi pada kegagalan. | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya, “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya, "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya, “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| output | Sumber data output. | Objek Referensi, misalnya, “output”: \$1"ref”:” myDataNode Id "\$1 | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya, “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI Amazon S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| postActivityTaskConfig | Script konfigurasi post-activity yang akan dijalankan. Ini terdiri dari URI script shell di Amazon S33 dan daftar argumen. | Objek Referensi, misalnya, "postActivityTaskConfig”: \$1"ref”:” “\$1 myShellScript ConfigId | 
| preActivityTaskConfig | Script konfigurasi post-activity yang akan dijalankan. Ini terdiri dari URI shell script di Amazon S3 dan daftar argumen. | Objek Referensi, misalnya, "preActivityTaskConfig”: \$1"ref”:” “\$1 myShellScript ConfigId | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya, “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| resizeClusterBeforeBerlari | Mengubah ukuran klaster sebelum melakukan aktivitas ini untuk mengakomodasi simpul data DynamoDB ditentukan sebagai input atau output. Jika aktivitas Anda menggunakan node data input atau output, dan jika Anda menyetelnya `resizeClusterBeforeRunning``TRUE`, AWS Data Pipeline mulailah menggunakan tipe `m3.xlarge` instance. `DynamoDBDataNode` Ini akan menimpa pilihan tipe instans Anda dengan `m3.xlarge`, yang dapat menambah biaya bulanan Anda.  | Boolean | 
| resizeClusterMaxContoh | Batas pada jumlah maksimum instans yang dapat diminta oleh algoritme resize. | Bilangan Bulat | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Penjadwalan Gaya Deret Waktu berarti instans dijadwalkan pada akhir setiap interval dan Penjadwalan Gaya Cron berarti intans dijadwalkan pada awal setiap interval. Jadwal sesuai permintaan mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal sesuai permintaan itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan saluran pipa sesuai permintaan, Anda cukup memanggil ActivatePipeline operasi untuk setiap proses berikutnya. Nilai adalah: cron, ondemand, dan timeseries. | Pencacahan | 
| scriptVariable | Argumen untuk diteruskan ke script Pig. Anda dapat menggunakan scriptVariable dengan script atau scriptUri. | String | 
| stage | Menentukan apakah staging diaktifkan dan memungkinkan skrip Pig Anda memiliki akses ke tabel data bertahap, seperti \$1 \$1INPUT1\$1 dan \$1 \$1\$1. OUTPUT1 | Boolean | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya, “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya, "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Langkah log Amazon EMR tersedia hanya pada upaya aktivitas EMR. | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan akhir waktu untuk objek. | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur tempat objek dibuat. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya, “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

## Lihat Juga
<a name="pigactivity-seealso"></a>
+ [ShellCommandActivity](dp-object-shellcommandactivity.md)
+ [EmrActivity](dp-object-emractivity.md)

# RedshiftCopyActivity
<a name="dp-object-redshiftcopyactivity"></a>

Menyalin data dari DynamoDB atau Amazon S3 ke Amazon Redshift. Anda dapat memuat data ke dalam tabel baru, atau dengan mudah menggabungkan data ke dalam tabel yang ada.

Berikut ini adalah gambaran umum kasus penggunaan di mana untuk menggunakan `RedshiftCopyActivity`:

1. Mulailah dengan menggunakan AWS Data Pipeline untuk mementaskan data Anda di Amazon S3. 

1. Gunakan `RedshiftCopyActivity` untuk memindahkan data dari Amazon RDS dan Amazon EMR ke Amazon Redshift.

   Hal ini memungkinkan Anda memuat data Anda ke Amazon Redshift di mana Anda dapat menganalisisnya.

1. Gunakan [SqlActivity](dp-object-sqlactivity.md) untuk melakukan kueri SQL pada data yang Anda telah muat ke Amazon Redshift.

 Selain itu, `RedshiftCopyActivity` memungkinkan Anda bekerja dengan `S3DataNode`, karena men-support file manifes. Untuk informasi selengkapnya, lihat [S3 DataNode](dp-object-s3datanode.md).

## Contoh
<a name="redshiftcopyactivity-example"></a>

Berikut adalah contoh dari jenis objek ini. 

Untuk memastikan konversi format, contoh ini menggunakan parameter konversi khusus [EMPTYASNULL](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html#copy-emptyasnull) dan [IGNOREBLANKLINES](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html#copy-ignoreblanklines) di `commandOptions`. Untuk informasi, lihat [Parameter Konversi Data](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) di *Panduan Developer Basis Data Amazon Redshift*.

```
{
  "id" : "S3ToRedshiftCopyActivity",
  "type" : "RedshiftCopyActivity",
  "input" : { "ref": "MyS3DataNode" },
  "output" : { "ref": "MyRedshiftDataNode" },
  "insertMode" : "KEEP_EXISTING",
  "schedule" : { "ref": "Hour" },
  "runsOn" : { "ref": "MyEc2Resource" },
  "commandOptions": ["EMPTYASNULL", "IGNOREBLANKLINES"]
}
```

Definisi contoh alur berikut menunjukkan aktivitas yang menggunakan mode sisipan `APPEND`:

```
{
  "objects": [
    {
      "id": "CSVId1",
      "name": "DefaultCSV1",
      "type": "CSV"
    },
    {
      "id": "RedshiftDatabaseId1",
      "databaseName": "dbname",
      "username": "user",
      "name": "DefaultRedshiftDatabase1",
      "*password": "password",
      "type": "RedshiftDatabase",
      "clusterId": "redshiftclusterId"
    },
    {
      "id": "Default",
      "scheduleType": "timeseries",
      "failureAndRerunMode": "CASCADE",
      "name": "Default",
      "role": "DataPipelineDefaultRole",
      "resourceRole": "DataPipelineDefaultResourceRole"
    },
    {
      "id": "RedshiftDataNodeId1",
      "schedule": {
        "ref": "ScheduleId1"
      },
      "tableName": "orders",
      "name": "DefaultRedshiftDataNode1",
      "createTableSql": "create table StructuredLogs (requestBeginTime CHAR(30) PRIMARY KEY DISTKEY SORTKEY, requestEndTime CHAR(30), hostname CHAR(100), requestDate varchar(20));",
      "type": "RedshiftDataNode",
      "database": {
        "ref": "RedshiftDatabaseId1"
      }
    },
    {
      "id": "Ec2ResourceId1",
      "schedule": {
        "ref": "ScheduleId1"
      },
      "securityGroups": "MySecurityGroup",
      "name": "DefaultEc2Resource1",
      "role": "DataPipelineDefaultRole",
      "logUri": "s3://myLogs",
      "resourceRole": "DataPipelineDefaultResourceRole",
      "type": "Ec2Resource"
    },
    {
      "id": "ScheduleId1",
      "startDateTime": "yyyy-mm-ddT00:00:00",
      "name": "DefaultSchedule1",
      "type": "Schedule",
      "period": "period",
      "endDateTime": "yyyy-mm-ddT00:00:00"
    },
    {
      "id": "S3DataNodeId1",
      "schedule": {
        "ref": "ScheduleId1"
      },
      "filePath": "s3://datapipeline-us-east-1/samples/hive-ads-samples.csv",
      "name": "DefaultS3DataNode1",
      "dataFormat": {
        "ref": "CSVId1"
      },
      "type": "S3DataNode"
    },
    {
      "id": "RedshiftCopyActivityId1",
      "input": {
        "ref": "S3DataNodeId1"
      },
      "schedule": {
        "ref": "ScheduleId1"
      },
      "insertMode": "APPEND",
      "name": "DefaultRedshiftCopyActivity1",
      "runsOn": {
        "ref": "Ec2ResourceId1"
      },
      "type": "RedshiftCopyActivity",
      "output": {
        "ref": "RedshiftDataNodeId1"
      }
    }
  ]
}
```

Operasi `APPEND` menambahkan item ke tabel terlepas dari primer atau semacam kunci. Misalnya, jika Anda memiliki tabel berikut, Anda dapat menambahkan catatan dengan ID dan nilai pengguna yang sama.

```
ID(PK)     USER
1          aaa
2          bbb
```

Anda dapat menambahkan catatan dengan ID dan nilai pengguna yang sama:

```
ID(PK)     USER
1          aaa
2          bbb
1          aaa
```

**catatan**  
Jika operasi `APPEND` terganggu dan dicoba lagi, alur jalankan kembali yang dihasilkan berpotensi ditambahkan dari awal. Hal ini dapat menyebabkan duplikasi lebih lanjut, sehingga Anda harus menyadari perilaku ini, terutama jika Anda memiliki logika yang menghitung jumlah baris.

Untuk tutorial, lihat [Salin Data ke Amazon Redshift Menggunakan AWS Data Pipeline](dp-copydata-redshift.md).

## Sintaksis
<a name="redshiftcopyactivity-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| insertMode |   Menentukan AWS Data Pipeline apa yang dilakukan dengan data yang sudah ada sebelumnya dalam tabel target yang tumpang tindih dengan baris dalam data yang akan dimuat. Nilai yang valid adalah: `KEEP_EXISTING`, `OVERWRITE_EXISTING`, `TRUNCATE`, dan `APPEND`. `KEEP_EXISTING` menambahkan baris baru ke meja, sementara meninggalkan setiap baris yang ada dimodifikasi. `KEEP_EXISTING` dan ` OVERWRITE_EXISTING` menggunakan kunci primer, urutkan, dan kunci distribusi untuk mengidentifikasi baris yang masuk untuk mencocokkan dengan baris yang ada. Lihat [Memperbarui dan Memasukkan Data Baru](https://docs.aws.amazon.com/redshift/latest/dg/t_updating-inserting-using-staging-tables-.html) di Amazon Redshift *Panduan Developer Basis Data*.  `TRUNCATE` menghapus semua data dalam tabel tujuan sebelum menulis data baru.  `APPEND` menambahkan semua catatan ke akhir tabel Redshift. `APPEND` tidak memerlukan primer, kunci distribusi, atau menyortir kunci sehingga item yang mungkin merupakan duplikat potensial dapat ditambahkan.  | Pencacahan | 

 


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal |  Objek ini dipanggil dalam pelaksanaan interval jadwal.  Tentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi dependensi untuk objek ini.  Dalam kebanyakan kasus, kami rekomendasikan untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Misalnya, Anda dapat dengan secara eksplisit mengatur jadwal pada objek dengan menentukan `"schedule": {"ref": "DefaultSchedule"}`.  Jika jadwal utama dalam alur Anda berisi jadwal nested, buat objek induk yang memiliki jadwal referensi.  Untuk informasi selengkapnya tentang contoh konfigurasi jadwal opsional, lihat [Jadwal](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html).   | Objek Referensi, seperti: "schedule":\$1"ref":"myScheduleId"\$1 | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| runsOn | Sumber daya komputasi untuk menjalankan aktivitas atau perintah. Misalnya, instans Amazon EC2 atau klaster Amazon EMR. | Objek Referensi, misalnya “RunsOn”: \$1"ref”:” “\$1 myResourceId | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup akan diabaikan. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel, maka aktivitas jarak jauh yang tidak lengkap dalam waktu mulai yang ditetapkan mungkin dicoba lagi. | Periode | 
| commandOptions |  Membawa parameter untuk diteruskan ke simpul data Amazon Redshift selama operasi `COPY`. Untuk informasi tentang parameter, lihat [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) di *Panduan Developer Basis Data Amazon Redshift*. Saat memuat tabel, `COPY` mencoba untuk secara implisit mengkonversi rangkaian ke tipe data dari kolom target. Selain konversi data default yang terjadi secara otomatis, jika Anda menerima kesalahan atau memiliki kebutuhan konversi lainnya, Anda dapat menentukan parameter konversi tambahan. Untuk informasi, lihat [Parameter Konversi Data](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) di Amazon Redshift *Panduan Developer Basis Data*. Jika format data dikaitkan dengan input atau output simpul data, maka parameter yang disediakan akan diabaikan.  Karena operasi penyalinan pertama kali menggunakan `COPY` untuk memasukkan data ke dalam tabel staging, dan kemudian menggunakan perintah `INSERT` untuk menyalin data dari tabel staging ke tabel tujuan, beberapa parameter `COPY` tidak berlaku, seperti kemampuan perintah `COPY` untuk mengaktifkan kompresi otomatis tabel. Jika kompresi diperlukan, menambahkan detail pengkodean kolom ke pernyataan `CREATE TABLE`.  Juga, dalam beberapa kasus ketika perlu membongkar data dari klaster Amazon Redshift dan membuat file di Amazon S3, `RedshiftCopyActivity` bergantung pada operasi `UNLOAD` dari Amazon Redshift. Untuk meningkatkan performa selama penyalinan dan pembongkaran, tentukan parameter `PARALLEL OFF` dari perintah `UNLOAD`. Untuk informasi tentang parameter, lihat [UNLOAD](https://docs.aws.amazon.com/redshift/latest/dg/r_UNLOAD.html) di Amazon Redshift *Panduan Developer Basis Data*.  | String | 
| dependsOn | Tentukan dependensi pada objek yang bisa dijalankan lainnya. | Objek Referensi: "dependsOn":\$1"ref":"myActivityId"\$1 | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| input | Simpul data input. Sumber data bisa jadi Amazon S3, DynamoDB, atau Amazon Redshift. | Objek Referensi: "input":\$1"ref":"myDataNodeId"\$1 | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi: "onFail":\$1"ref":"myActionId"\$1 | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi:  "onLateAction":\$1"ref":"myActionId"\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi: "onSuccess":\$1"ref":"myActionId"\$1 | 
| output | Simpul data output. Lokasi output bisa jadi Amazon S3 atau Amazon Redshift. | Objek Referensi: "output":\$1"ref":"myDataNodeId"\$1 | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi: "parent":\$1"ref":"myBaseObjectId"\$1 | 
| pipelineLogUri | URI S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi: "precondition":\$1"ref":"myPreconditionId"\$1 | 
| antrean |  Sesuai dengan pengaturan `query_group ` di Amazon Redshift, yang mengizinkan Anda untuk menetapkan dan memprioritaskan aktivitas bersamaan berdasarkan penempatan mereka dalam antrean.  Amazon Redshift membatasi jumlah koneksi simultan hingga 15. Untuk informasi selengkapnya, lihat [Menetapkan Kueri untuk Antrean](https://docs.aws.amazon.com/AmazonRDS/latest/DeveloperGuide/cm-c-executing-queries.html) di Amazon RDS *Panduan Developer Basis Data*.  | String | 
| reportProgressTimeout |  Timeout untuk panggilan berurutan kerja jarak jauh ke `reportProgress`.  Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi.  | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| scheduleType |  Mengizinkan Anda untuk menentukan apakah jadwal untuk objek dalam alur Anda. Nilai adalah: `cron`, `ondemand`, dan `timeseries`. Penjadwalan `timeseries` berarti bahwa instans dijadwalkan pada akhir setiap interval. Penjadwalan `Cron` berarti bahwa instans dijadwalkan pada awal setiap interval.  Jadwal `ondemand` mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi.  Untuk menggunakan alur `ondemand`, panggil operasi `ActivatePipeline` untuk setiap putaran berikutnya.  Jika Anda menggunakan jadwal `ondemand`, Anda harus menentukan dalam objek default, dan itu harus menjadi satu-satunya `scheduleType` yang ditentukan untuk objek dalam alur.  | Pencacahan | 
| transformSql |  Ekspresi `SQL SELECT` yang digunakan untuk mengubah input data.  Jalankan ekspresi `transformSql` pada tabel bernama `staging`.  Saat Anda menyalin data dari DynamoDB atau Amazon S3, AWS Data Pipeline membuat tabel yang disebut "staging" dan awalnya memuat data di sana. Data dari tabel ini digunakan untuk memperbarui tabel target.  Output skema `transformSql` harus sesuai skema tabel target akhir ini. Jika Anda menentukan pilihan `transformSql`, tabel staging kedua dibuat dari pernyataan SQL tertentu. Data dari tabel staging kedua ini kemudian diperbarui dalam tabel target akhir.  | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi: "activeInstances":\$1"ref":"myRunnableObjectId"\$1 | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi: "cascadeFailedOn":\$1"ref":"myRunnableObjectId"\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan akhir waktu untuk objek. | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi: "waitingOn":\$1"ref":"myRunnableObjectId"\$1 | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup sebuah objek. Menunjukkan tempatnya dalam siklus hidup. Misalnya, Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects.. | String | 

# ShellCommandActivity
<a name="dp-object-shellcommandactivity"></a>

 Menjalankan perintah atau script. Anda dapat menggunakan `ShellCommandActivity` untuk menjalankan tugas terjadwal deret waktu atau seperti cron. 

Saat bidang `stage` disetel ke BETUL dan digunakan dengan `S3DataNode`, `ShellCommandActivity` men-support konsep staging data, yang berarti bahwa Anda dapat memindahkan data dari Amazon S3 ke lokasi stage, seperti Amazon EC2 atau lingkungan lokal Anda, melakukan pekerjaan pada data menggunakan script dan `ShellCommandActivity`, dan memindahkannya kembali ke Amazon S3. 

Dalam hal ini, ketika perintah shell Anda terhubung ke input `S3DataNode`, script shell anda beroperasi secara langsung pada data menggunakan `${INPUT1_STAGING_DIR}`, `${INPUT2_STAGING_DIR}`, dan bidang lainnya, mengacu pada bidang input `ShellCommandActivity`. 

Demikian pula, output dari shell-perintah dapat di-staged dalam direktori output untuk secara otomatis didorong ke Amazon S3, diirujuk oleh `${OUTPUT1_STAGING_DIR}`, `${OUTPUT2_STAGING_DIR}`, dan sebagainya. 

Ekspresi ini dapat diteruskan sebagai argumen baris perintah untuk shell-perintah bagi Anda untuk menggunakan dalam logika transformasi data.

`ShellCommandActivity` mengembalikan kode kesalahan bergaya Linux dan rangkaian. Jika hasil `ShellCommandActivity` dalam kesalahan, `error` yang dikembalikan adalah nilai bukan nol.

## Contoh
<a name="shellcommandactivity-example"></a>

Berikut adalah contoh dari jenis objek ini.

```
{
  "id" : "CreateDirectory",
  "type" : "ShellCommandActivity",
  "command" : "mkdir new-directory"
}
```

## Sintaksis
<a name="shellcommandactivity-syntax"></a>


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal |  Objek ini dipanggil dalam eksekusi dari selang waktu `schedule`. Untuk menyetel perintah eksekusi dependensi untuk objek ini, tentukan referensi `schedule` ke objek lain.  Untuk memenuhi persyaratan ini, atur secara eksplisit `schedule` pada objek, misalnya, dengan menentukan `"schedule": {"ref": "DefaultSchedule"}`.  Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi `schedule` pada objek alur default sehingga semua objek mewarisi jadwal itu. Jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), buat objek induk yang memiliki referensi jadwal.  Untuk menyebarkan beban, AWS Data Pipeline buat objek fisik sedikit lebih cepat dari jadwal, tetapi jalankan sesuai jadwal.  Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html)  | Objek Referensi, misalnya “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| perintah | Perintah yang akan dijalankan. Gunakan \$1 untuk referensi parameter posisi dan scriptArgument untuk menentukan parameter untuk perintah. Nilai ini dan setiap parameter terkait harus berfungsi di lingkungan dari mana Anda menjalankan Task Runner. | String | 
| scriptUri | Sebuah jalur Amazon S3 URI untuk file untuk mengunduh dan menjalankan sebagai perintah shell. Tentukan hanya satu scriptUri, atau bidang command. scriptUri tidak dapat menggunakan parameter, gunakan command sebagai gantinya. | String | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| runsOn | Sumber daya komputasi untuk menjalankan aktivitas atau perintah, misalnya, instans Amazon EC2 atau klaster Amazon EMR. | Objek Referensi, misalnya “RunsOn”: \$1"ref”:” “\$1 myResourceId | 
| workerGroup | Digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup akan diabaikan. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Status yang paling baru dilaporkan dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel, maka aktivitas jarak jauh yang tidak lengkap dalam waktu mulai yang ditetapkan mungkin dicoba lagi. | Periode | 
| dependsOn | Menentukan dependensi pada objek yang dapat dijalankan lainnya. | Objek Referensi, misalnya “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| input | Lokasi data input. | Objek Referensi, misalnya “input”: \$1"ref”:” myDataNode Id "\$1 | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Upaya jumlah maksimum mencoba lagi pada kegagalan. | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau tidak selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| output | Lokasi data output. | Objek Referensi, misalnya “output”: \$1"ref”:” myDataNode Id "\$1 | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | Amazon S3 URI, seperti 's3://BucketName/Key/' untuk unggah log untuk alur. | String | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| reportProgressTimeout | Timeout untuk panggilan berturut-turut ke reportProgress oleh aktivitas jarak jauh. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| scheduleType |  Mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau pada akhir interval.  Nilainya adalah `cron`, `ondemand`, dan `timeseries`. Jika disetel ke `timeseries`, instans dijadwalkan pada akhir setiap interval.  Jika disetel ke `Cron`, instans dijadwalkan pada awal setiap interval.  Jika disetel ke `ondemand`, Anda dapat menjalankan alur satu kali, per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal `ondemand`, tentukan itu dalam objek default sebagai satu-satunya `scheduleType` untuk objek dalam alur. Untuk menggunakan alur `ondemand`, panggil operasi `ActivatePipeline` untuk setiap putaran berikutnya.   | Pencacahan | 
| scriptArgument | Array string berformat JSON untuk diteruskan ke perintah yang ditentukan oleh perintah. Misalnya, jika perintah echo \$11 \$12, tentukan scriptArgument sebagai "param1", "param2". Untuk beberapa argumen dan parameter, teruskan scriptArgument sebagai berikut: "scriptArgument":"arg1","scriptArgument":"param1","scriptArgument":"arg2","scriptArgument":"param2". scriptArgument hanya dapat digunakan dengan command; Menggunakannya dengan scriptUri menyebabkan kesalahan. | String | 
| stage | Menentukan apakah staging diaktifkan dan mengizinkan perintah shell Anda untuk memiliki akses ke variabel data ter-staged, seperti \$1\$1INPUT1\$1STAGING\$1DIR\$1 dan \$1\$1OUTPUT1\$1STAGING\$1DIR\$1. | Boolean | 
| stderr | Jalur yang menerima pesan kesalahan sistem yang dialihkan dari perintah. Jika Anda menggunakan bidang runsOn, ini harus menjadi jalur Amazon S3 karena sifat sementara dari sumber daya yang menjalankan aktivitas Anda. Namun, jika Anda menentukan bidang workerGroup, jalur file lokal diizinkan. | String | 
| stdout | Jalur Amazon S3 yang menerima output yang dialihkan dari perintah. Jika Anda menggunakan bidang runsOn, ini harus menjadi jalur Amazon S3 karena sifat sementara dari sumber daya yang menjalankan aktivitas Anda. Namun, jika Anda menentukan bidang workerGroup, jalur file lokal diizinkan. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi yang menyebabkan kegagalan objek. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah Amazon EMR tersedia hanya pada upaya aktivitas Amazon EMR. | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu di mana objek menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk aktivitas berbasis Amazon EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu menjalankan terbaru tempat eksekusi selesai. | DateTime | 
| @latestRunTime | Waktu menjalankan terbaru tempat eksekusi dijadwalkan. | DateTime | 
| @nextRunTime | Waktu menjalankan yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwal waktu akhir untuk objek. | DateTime | 
| @scheduledStartTime | Jadwal waktu mulai untuk objek. | DateTime | 
| @status | Status objek. | String | 
| @version |  AWS Data Pipeline Versi yang digunakan untuk membuat objek. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Kesalahan yang menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Tempat objek dalam siklus hidup. Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

## Lihat Juga
<a name="shellcommandactivity-seealso"></a>
+ [CopyActivity](dp-object-copyactivity.md)
+ [EmrActivity](dp-object-emractivity.md)

# SqlActivity
<a name="dp-object-sqlactivity"></a>

Menjalankan kueri SQL (script) pada basis data.

## Contoh
<a name="sqlactivity-example"></a>

Berikut adalah contoh dari jenis objek ini.

```
{
  "id" : "MySqlActivity",
  "type" : "SqlActivity",
  "database" : { "ref": "MyDatabaseID" },
  "script" : "SQLQuery" | "scriptUri" : s3://scriptBucket/query.sql,
  "schedule" : { "ref": "MyScheduleID" },
}
```

## Sintaksis
<a name="sqlactivity-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| basis data | Basis data untuk menjalankan script SQL yang disediakan. | Objek Referensi, misalnya “database”: \$1"ref”:” myDatabaseId “\$1 | 

 


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal |  Objek ini dipanggil dalam pelaksanaan interval jadwal. Anda harus menentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi dependensi untuk objek ini. Misalnya, Anda dapat dengan secara eksplisit mengatur jadwal pada objek dengan menentukan `"schedule": {"ref": "DefaultSchedule"}`.  Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu.  Jika alur memiliki pohon jadwal yang bersarang di jadwal utama, buat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html)  | Objek Referensi, misalnya “schedule”: \$1"ref”:” myScheduleId “\$1 | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| script | Script SQL untuk menjalankan. Anda harus menentukan script atau scriptUri. Ketika script disimpan di Amazon S3, maka script tidak dievaluasi sebagai ekspresi. Menentukan beberapa nilai untuk scriptArgument sangat membantu ketika script disimpan di Amazon S3. | String | 
| scriptUri | Sebuah URI menentukan lokasi script SQL untuk mengeksekusi dalam aktivitas ini. | String | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| runsOn | Sumber daya komputasi untuk menjalankan aktivitas atau perintah. Misalnya, instans Amazon EC2 atau klaster Amazon EMR. | Objek Referensi, misalnya “RunsOn”: \$1"ref”:” “\$1 myResourceId | 
| workerGroup | Kelompok pekerja. Ini digunakan untuk tugas perutean. Jika Anda memberikan nilai runsOn dan workerGroup ada, workerGroup akan diabaikan. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| dependsOn | Tentukan dependensi pada objek yang bisa dijalankan lainnya. | Objek Referensi, misalnya “DependsOn”: \$1"ref”:” “\$1 myActivityId | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| input | Lokasi data input. | Objek Referensi, misalnya “input”: \$1"ref”:” myDataNode Id "\$1 | 
| lateAfterTimeout | Jangka waktu sejak awal dijadwalkan dari alur di mana objek dijalankan harus dimulai. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika suatu objek belum dijadwalkan atau masih belum selesai dalam periode waktu sejak awal pipeline yang dijadwalkan seperti yang ditentukan oleh 'lateAfterTimeout'. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| output | Lokasi data output. Ini hanya berguna untuk referensi dari dalam skrip (misalnya\$1\$1output.tablename\$1) dan untuk membuat tabel output dengan mengatur 'createTableSql' di node data output. Output dari kueri SQL tidak ditulis ke simpul data output. | Objek Referensi, misalnya “output”: \$1"ref”:” myDataNode Id "\$1 | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| pipelineLogUri | URI S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| prasyarat | Mendefinisikan prasyarat secara opsional. Sebuah simpul data tidak ditandai "READY" sampai semua prasyarat telah terpenuhi. | Objek Referensi, misalnya “prasyarat”: \$1"ref”:” “myPreconditionId\$1 | 
| antrean | [Amazon Redshift saja] Sesuai dengan pengaturan query\$1group di Amazon Redshift, yang mengizinkan Anda untuk menetapkan dan memprioritaskan aktivitas bersamaan berdasarkan penempatan mereka dalam antrean. Amazon Redshift membatasi jumlah koneksi simultan hingga 15. Untuk informasi selengkapnya, lihat [Menetapkan Kueri untuk Antrean](https://docs.aws.amazon.com/redshift/latest/dg/cm-c-executing-queries.html) dalam Panduan Developer Basis Data Amazon Redshift. | String | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| scheduleType |  Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval atau akhir interval. Nilai adalah: `cron`, `ondemand`, dan `timeseries`.  Penjadwalan `timeseries` berarti instans dijadwalkan pada akhir setiap interval. Penjadwalan `cron` berarti bahwa instans dijadwalkan pada awal setiap interval.  Jadwal `ondemand` mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Ini berarti Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal `ondemand` itu harus ditentukan dalam objek default dan harus menjadi satu-satunya `scheduleType` yang ditentukan untuk objek dalam alur. Untuk menggunakan alur `ondemand`, panggil operasi `ActivatePipeline` untuk setiap putaran berikutnya.  | Pencacahan | 
| scriptArgument | Daftar variabel untuk script. Sebagai alternatif, Anda dapat menempatkan ekspresi langsung ke bidang script. Beberapa nilai untuk scriptArgument berguna saat script disimpan di Amazon S3. Contoh: \$1 \$1format (@scheduledStartTime, "YY-MM-DD HH:MM:SS"\$1\$1n\$1 \$1format (PlusPeriod (@, “1 hari”)scheduledStartTime, "HH:MM:SS"\$1 YY-MM-DD  | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk objek | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

# Sumber daya
<a name="dp-object-resources"></a>

Berikut ini adalah objek AWS Data Pipeline sumber daya:

**Topics**
+ [Ec2Resource](dp-object-ec2resource.md)
+ [EmrCluster](dp-object-emrcluster.md)
+ [HttpProxy](dp-object-httpproxy.md)

# Ec2Resource
<a name="dp-object-ec2resource"></a>

Instans Amazon EC2 yang melakukan pekerjaan yang ditentukan oleh aktivitas alur.

AWS Data Pipeline sekarang mendukung IMDSv2 untuk instans Amazon EC2, yang menggunakan metode berorientasi sesi untuk menangani otentikasi dengan lebih baik saat mengambil informasi metadata dari instance. Sesi dimulai dan mengakhiri serangkaian permintaan yang digunakan perangkat lunak yang berjalan pada instans Amazon EC2 untuk mengakses metadata dan kredensyal instans Amazon EC2 yang disimpan secara lokal. Perangkat lunak memulai sesi dengan permintaan HTTP PUT sederhana ke IMDSv2. IMDSv2 mengembalikan token rahasia ke perangkat lunak yang berjalan pada instans Amazon EC2, yang akan menggunakan token sebagai kata sandi untuk membuat permintaan metadata dan kredensyal. IMDSv2 

**catatan**  
Untuk menggunakan IMDSv2 untuk instans Amazon EC2 Anda, Anda harus mengubah pengaturan, karena AMI default tidak kompatibel dengannya. IMDSv2 Anda dapat menentukan versi AMI baru yang dapat Anda ambil melalui parameter SSM berikut:. `/aws/service/ami-amazon-linux-latest/amzn-ami-hvm-x86_64-ebs`

Untuk informasi tentang instans Amazon EC2 default yang AWS Data Pipeline dibuat jika Anda tidak menentukan instance, lihat. [Instans Amazon EC2 Default oleh Wilayah AWS](dp-ec2-default-instance-types.md)

## Contoh
<a name="ec2resource-example"></a>

**EC2-Klasik**

**penting**  
Hanya AWS akun yang dibuat sebelum 4 Desember 2013 yang mendukung platform EC2-Classic. Jika Anda memiliki salah satu akun ini, Anda mungkin memiliki pilihan untuk membuat objek EC2Resource untuk alur di jaringan EC2-Classic daripada VPC. Kami sangat merekomendasikan agar Anda membuat sumber daya untuk semua alur Anda di VPC. Selain itu, jika Anda memiliki sumber daya yang ada di EC2-Classic, sebaiknya Anda memigrasikannya ke VPC.

Contoh objek berikut meluncurkan instans EC2 ke EC2-Classic, dengan beberapa bidang opsional ditetapkan.

```
{
  "id" : "MyEC2Resource",
  "type" : "Ec2Resource",
  "actionOnTaskFailure" : "terminate",
  "actionOnResourceFailure" : "retryAll",
  "maximumRetries" : "1",
  "instanceType" : "m5.large",
  "securityGroups" : [
    "test-group",
    "default"
  ],
  "keyPair" : "my-key-pair"
}
```

**EC2-VPC**

Contoh objek berikut meluncurkan instans EC2 menjadi VPC nondefault dengan beberapa bidang opsional ditetapkan.

```
{
  "id" : "MyEC2Resource",
  "type" : "Ec2Resource",
  "actionOnTaskFailure" : "terminate",
  "actionOnResourceFailure" : "retryAll",
  "maximumRetries" : "1",
  "instanceType" : "m5.large",
  "securityGroupIds" : [
    "sg-12345678",
    "sg-12345678"
  ],
  "subnetId": "subnet-12345678",
  "associatePublicIpAddress": "true",
  "keyPair" : "my-key-pair"
}
```

## Sintaksis
<a name="ec2resource-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| resourceRole | IAM role yang mengontrol sumber daya yang instans Amazon EC2 dapat mengakses. | String | 
| peran | Peran IAM yang AWS Data Pipeline digunakan untuk membuat instans EC2. | String | 

 


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal |  Objek ini dipanggil dalam pelaksanaan interval jadwal.  Untuk mengatur urutan eksekusi dependensi untuk objek ini, tentukan referensi jadwal ke objek lain. Anda dapat melakukannya dengan salah satu cara berikut: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/datapipeline/latest/DeveloperGuide/dp-object-ec2resource.html)  | Objek Referensi, misalnya "schedule":\$1"ref":"myScheduleId"\$1 | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| actionOnResourceKegagalan | Tindakan yang diambil setelah kegagalan sumber daya untuk sumber daya ini. Nilai yang valid adalah "retryall" dan "retrynone". | String | 
| actionOnTaskKegagalan | Tindakan yang diambil setelah kegagalan tugas untuk sumber daya ini. Nilai-nilai yang valid adalah "continue" atau "terminate". | String | 
| associatePublicIpAlamat | Menunjukkan apakah akan menetapkan alamat IP publik pada instans. Jika instans adalah di Amazon EC2 atau Amazon VPC, nilai defaultnya adalah true. Jika tidak, nilai defaultnya adalah false. | Boolean | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel, maka aktivitas jarak jauh yang tidak lengkap dalam waktu mulai yang ditetapkan mungkin dicoba lagi. | Periode | 
| availabilityZone | Availability Zone tempat meluncurkan instans Amazon EC2. | String | 
| menonaktifkan IMDSv1 | Nilai default adalah false dan memungkinkan keduanya IMDSv1 dan IMDSv2. Jika Anda mengaturnya ke true maka itu akan dinonaktifkan IMDSv1 dan hanya menyediakan IMDSv2s | Boolean | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| httpProxy | Host proxy yang digunakan klien untuk terhubung ke AWS layanan. | Objek Referensi, misalnya, "httpProxy":\$1"ref":"myHttpProxyId"\$1 | 
| imageId | ID AMI yang digunakan untuk digunakan untuk instans. Secara default, AWS Data Pipeline menggunakan tipe virtualisasi HVM AMI. AMI spesifik yang IDs digunakan didasarkan pada Wilayah. Anda dapat menimpa AMI default dengan menentukan AMI HVM pilihan Anda. Untuk informasi selengkapnya tentang tipe AMI, lihat [Jenis Virtualisasi AMI Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/virtualization_types.html) dan [Menemukan AMI Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html) di Panduan *Pengguna Amazon EC2*.  | String | 
| initTimeout | Jumlah waktu untuk menunggu sumber daya dimulai.  | Periode | 
| instanceCount | Telah usang. | Bilangan Bulat | 
| instanceType | Jenis instans Amazon EC2 untuk dimulai. | String | 
| keyPair | Nama pasangan kunci. Jika Anda meluncurkan instans Amazon EC2 tanpa menentukan pasangan kunci, Anda tidak dapat masuk ke sana. | String | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Jumlah maksimum upaya mencoba ulang pada kegagalan. | Bilangan Bulat | 
| minInstanceCount | Telah usang. | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya "onFail":\$1"ref":"myActionId"\$1 | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih berjalan. | Objek Referensi, misalnya"onLateAction":\$1"ref":"myActionId"\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya, "onSuccess":\$1"ref":"myActionId"\$1 | 
| induk | Induk dari objek saat ini dari mana slot diwariskan. | Objek Referensi, misalnya, "parent":\$1"ref":"myBaseObjectId"\$1 | 
| pipelineLogUri | Amazon S3 URI (seperti 's3://BucketName/Key/') untuk mengunggah log untuk alur. | String | 
| region |  Kode untuk Wilayah di mana instans Amazon EC2 harus berjalan. Secara default, instans berjalan di Wilayah yang sama dengan alur. Anda dapat menjalankan instans di Wilayah yang sama sebagai set data bergantung. | Pencacahan | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka aktivitas jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan akan dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| runAsUser | Pengguna untuk menjalankan TaskRunner. | String | 
| runsOn | Bidang ini tidak diizinkan pada objek ini. | Objek Referensi, misalnya, "runsOn":\$1"ref":"myResourceId"\$1 | 
| scheduleType |  Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval, atau akhir interval, atau sesuai permintaan. Nilainya adalah: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/datapipeline/latest/DeveloperGuide/dp-object-ec2resource.html)  | Pencacahan | 
| securityGroupIds | ID dari satu atau lebih grup keamanan Amazon EC2 untuk digunakan untuk instans di kolam sumber daya. | String | 
| securityGroups | Satu atau lebih grup keamanan Amazon EC2 untuk digunakan untuk instans di kolam sumber daya. | String | 
| spotBidPrice | Jumlah maksimum per jam untuk Instans Spot Anda dalam dolar, yang merupakan nilai desimal antara 0 dan 20,00, eksklusif. | String | 
| subnetId | ID subnet Amazon EC2 tempat memulai instans. | String | 
| terminateAfter | Jumlah jam setelah itu untuk mengakhiri sumber daya. | Periode | 
| useOnDemandOnLastAttempt | Pada upaya terakhir untuk meminta Instans Spot, buat permintaan untuk Instans Sesuai Permintaan daripada Instans Spot. Hal ini memastikan bahwa jika semua upaya sebelumnya telah gagal, upaya terakhir tidak terganggu. | Boolean | 
| workerGroup | Bidang ini tidak diizinkan pada objek ini. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya, "activeInstances":\$1"ref":"myRunnableObjectId"\$1 | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya, "cascadeFailedOn":\$1"ref":"myRunnableObjectId"\$1 | 
| emrStepLog | Log langkah tersedia hanya pada upaya aktivitas Amazon EMR. | String | 
| errorId | ID kesalahan jika objek ini gagal. | String | 
| errorMessage | Pesan galat jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @failureReason | Alasan kegagalan sumber daya. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | Log tugas Hadoop yang tersedia pada upaya untuk aktivitas Amazon EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | Id dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwal waktu akhir untuk objek. | DateTime | 
| @scheduledStartTime | Jadwal waktu mulai untuk objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur dengan objek yang dibuat. | String | 
| @waitingOn | Deskripsi daftar dependensi yang menunggu objek ini. | Objek Referensi, misalnya, "waitingOn":\$1"ref":"myRunnableObjectId"\$1 | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Tempat objek dalam siklus hidup. objek komponen memunculkan objek instans, yang mengeksekusi objek percobaan. | String | 

# EmrCluster
<a name="dp-object-emrcluster"></a>

Merepresentasikan konfigurasi klaster Amazon EMR. Objek ini digunakan oleh [EmrActivity](dp-object-emractivity.md) dan [HadoopActivity](dp-object-hadoopactivity.md) untuk meluncurkan sebuah klaster.

**Topics**
+ [Penjadwal](#emrcluster-schedulers)
+ [Amazon EMR Versi Rilis](#dp-emrcluster-release-versions)
+ [Izin Amazon EMR](#w2aac52c17b9c11)
+ [Sintaksis](#emrcluster-syntax)
+ [Contoh](emrcluster-example.md)
+ [Lihat Juga](#emrcluster-seealso)

## Penjadwal
<a name="emrcluster-schedulers"></a>

Penjadwal menyediakan cara untuk menentukan alokasi sumber daya dan prioritas tugas dalam klaster Hadoop. Administrator atau pengguna dapat memilih penjadwal untuk berbagai kelas pengguna dan aplikasi. Penjadwal bisa menggunakan antrean untuk mengalokasikan sumber daya untuk pengguna dan aplikasi. Anda mengatur antrean tersebut ketika Anda membuat klaster. Anda kemudian dapat mengatur prioritas untuk jenis pekerjaan tertentu dan pengguna atas orang lain. Ini menyediakan untuk efisien penggunaan klaster sumber daya, sementara mengizinkan lebih dari satu pengguna untuk mengirimkan pekerjaan ke klaster. Ada tiga jenis penjadwal yang tersedia:
+ [FairScheduler](https://hadoop.apache.org/docs/stable/hadoop-yarn/hadoop-yarn-site/FairScheduler.html)— Mencoba menjadwalkan sumber daya secara merata selama periode waktu yang signifikan.
+ [CapacityScheduler](https://hadoop.apache.org/docs/stable/hadoop-yarn/hadoop-yarn-site/CapacityScheduler.html)— Menggunakan antrian untuk memungkinkan administrator cluster untuk menetapkan pengguna untuk antrian dari berbagai prioritas dan alokasi sumber daya. 
+ Default — Digunakan oleh klaster, yang dapat dikonfigurasi oleh situs Anda.

## Amazon EMR Versi Rilis
<a name="dp-emrcluster-release-versions"></a>

Rilis Amazon EMR adalah seperangkat aplikasi sumber terbuka dari ekosistem big data. Setiap rilis terdiri dari aplikasi big data, komponen, dan fitur yang berbeda yang bisa Anda pilih untuk diinstal dan dikonfigurasi oleh Amazon EMR ketika Anda membuat sebuah klaster. Anda menentukan versi rilis menggunakan Label rilis. Label rilis ada dalam bentuk`emr-x.x.x`. Misalnya, `emr-5.30.0`. Klaster Amazon EMR berdasarkan label rilis `emr-4.0.0` dan kemudian menggunakan properti `releaseLabel` untuk menentukan label rilis dari objek `EmrCluster`. Versi sebelumnya menggunakan properti `amiVersion`.

**penting**  
Semua klaster Amazon EMR dibuat menggunakan rilis versi 5.22.0 atau yang lebih baru menggunakan [Tanda Tangan Versi 4](https://docs.aws.amazon.com/general/latest/gr/signature-version-4.html) untuk mengautentikasi permintaan ke Amazon S3. Beberapa versi rilis sebelumnya menggunakan Tanda Tangan Versi 2. Support Tanda Tangan versi 2 sedang dihentikan. Untuk informasi selengkapnya, lihat [Amazon S3 Update – Sigv2 Periode Pengusangan Diperpanjang dan Dimodifikasi](https://aws.amazon.com/blogs/aws/amazon-s3-update-sigv2-deprecation-period-extended-modified/). Kami sangat merekomendasikan agar Anda menggunakan versi rilis Amazon EMR yang men-support Tanda Tangan Versi 4. Untuk rilis versi sebelumnya, dimulai dengan EMR 4.7.x, rilis terbaru dalam seri telah diperbarui untuk men-support Tanda Tangan Versi 4. Saat menggunakan versi rilis Amazon EMR sebelumnya, kami merekomendasikan Anda menggunakan rilis terbaru dalam seri. Selain itu, hindari rilis lebih awal dari EMR 4.7.0.

### Pertimbangan dan Batasan
<a name="dp-emrcluster-considerations"></a>

#### Gunakan versi terbaru Task Runner
<a name="dp-task-runner-latest"></a>

Jika Anda menggunakan objek `EmrCluster` yang dikelola sendiri dengan label rilis, gunakan Task Runner terbaru. Untuk informasi selengkapnya tentang Task Runner, lihat [Bekerja dengan Runner Tugas](dp-using-task-runner.md). Anda dapat mengonfigurasi nilai properti untuk semua klasifikasi konfigurasi Amazon EMR. Untuk informasi selengkapnya, lihat [Mengonfigurasi Aplikasi](https://docs.aws.amazon.com/ElasticMapReduce/latest/ReleaseGuide/emr-configure-apps.html) di *Panduan Rilis Amazon EMR*, [EmrConfiguration](dp-object-emrconfiguration.md), dan referensi objek [Properti](dp-object-property.md). 

#### Support untuk IMDSv2
<a name="dp-emr-imdsv2-support"></a>

Sebelumnya, hanya AWS Data Pipeline didukung IMDSv1. Sekarang, AWS Data Pipeline mendukung IMDSv2 di Amazon EMR 5.23.1, 5.27.1, dan 5.32 atau lebih baru, dan Amazon EMR 6.2 atau lebih baru. IMDSv2 menggunakan metode berorientasi sesi untuk menangani otentikasi dengan lebih baik saat mengambil informasi metadata dari instance. Anda harus mengonfigurasi instance Anda untuk melakukan IMDSv2 panggilan dengan membuat sumber daya yang dikelola pengguna menggunakan -2.0. TaskRunner

#### Amazon EMR 5.32 atau lebih baru dan Amazon EMR 6.x
<a name="dp-emr-6-classpath"></a>

Amazon EMR 5.32 atau yang lebih baru dan seri rilis 6.x menggunakan Hadoop versi 3.x, yang memperkenalkan perubahan besar dalam cara classpath Hadoop dievaluasi dibandingkan dengan Hadoop versi 2.x. Perpustakaan umum seperti Joda-Time telah dihapus dari classpath.

Jika [EmrActivity](dp-object-emractivity.md) atau [HadoopActivity](dp-object-hadoopactivity.md) menjalankan file Jar yang memiliki dependensi pada perpustakaan yang telah dihapus di Hadoop 3.x, langkah gagal dengan kesalahan `java.lang.NoClassDefFoundError` atau `java.lang.ClassNotFoundException`. Hal ini dapat terjadi untuk file Jar yang berjalan tanpa masalah menggunakan versi rilis Amazon EMR 5.x.

Untuk memperbaiki masalah ini, Anda harus menyalin file Jar dependensi ke classpath Hadoop pada objek `EmrCluster` sebelum memulai `EmrActivity` atau `HadoopActivity`. Kami menyediakan script bash untuk melakukan hal ini. Skrip bash tersedia di lokasi berikut, di mana *MyRegion* adalah AWS Wilayah tempat `EmrCluster` objek Anda berjalan, misalnya`us-west-2`.

```
s3://datapipeline-MyRegion/MyRegion/bootstrap-actions/latest/TaskRunner/copy-jars-to-hadoop-classpath.sh
```

Cara menjalankan skrip tergantung pada apakah `EmrActivity` atau `HadoopActivity` berjalan pada sumber daya yang dikelola oleh AWS Data Pipeline atau dijalankan pada sumber daya yang dikelola sendiri.

Jika Anda menggunakan sumber daya yang dikelola oleh AWS Data Pipeline, tambahkan a `bootstrapAction` ke `EmrCluster` objek. `bootstrapAction` menentukan script dan file Jar untuk menyalin sebagai argumen. Anda dapat menambahkan hingga 255 bidang `bootstrapAction` per objek `EmrCluster`, dan Anda dapat menambahkan bidang `bootstrapAction` ke objek `EmrCluster` yang sudah memiliki tindakan bootstrap.

Untuk menentukan skrip ini sebagai tindakan bootstrap, gunakan sintaks berikut, di mana `JarFileRegion` Wilayah tempat file Jar disimpan, dan masing-masing *MyJarFile*n** adalah jalur absolut di Amazon S3 dari file Jar yang akan disalin ke classpath Hadoop. Jangan menentukan file Jar yang berada di classpath Hadoop secara default.

```
s3://datapipeline-MyRegion/MyRegion/bootstrap-actions/latest/TaskRunner/copy-jars-to-hadoop-classpath.sh,JarFileRegion,MyJarFile1,MyJarFile2[, ...]
```

Contoh berikut menentukan tindakan bootstrap yang menyalin dua file Jar di Amazon S3: `my-jar-file.jar` dan `emr-dynamodb-tool-4.14.0-jar-with-dependencies.jar`. Wilayah yang digunakan dalam contoh ini adalah us-west-2.

```
{
  "id" : "MyEmrCluster",
  "type" : "EmrCluster",
  "keyPair" : "my-key-pair",
  "masterInstanceType" : "m5.xlarge",
  "coreInstanceType" : "m5.xlarge",
  "coreInstanceCount" : "2",
  "taskInstanceType" : "m5.xlarge",
  "taskInstanceCount": "2",
  "bootstrapAction" : ["s3://datapipeline-us-west-2/us-west-2/bootstrap-actions/latest/TaskRunner/copy-jars-to-hadoop-classpath.sh,us-west-2,s3://path/to/my-jar-file.jar,s3://dynamodb-dpl-us-west-2/emr-ddb-storage-handler/4.14.0/emr-dynamodb-tools-4.14.0-jar-with-dependencies.jar"]
}
```

Anda harus menyimpan dan mengaktifkan alur untuk perubahan ke `bootstrapAction` untuk mengambil efek.

Jika Anda menggunakan sumber daya yang dikelola sendiri, Anda dapat mengunduh script untuk instans klaster dan menjalankannya dari baris perintah menggunakan SSH. Script membuat direktori bernama `/etc/hadoop/conf/shellprofile.d` dan sebuah file bernama `datapipeline-jars.sh` dalam direktori itu. File jar disediakan sebagai argumen baris perintah disalin ke direktori yang script ciptakan yang bernama `/home/hadoop/datapipeline_jars`. Jika klaster Anda diatur berbeda, modifikasi script dengan tepat setelah mengunduhnya.

Sintaks untuk menjalankan script pada baris perintah sedikit berbeda dari menggunakan `bootstrapAction` yang ditunjukkan pada contoh sebelumnya. Gunakan spasi bukan koma antara argumen, seperti yang ditunjukkan dalam contoh berikut.

```
./copy-jars-to-hadoop-classpath.sh us-west-2 s3://path/to/my-jar-file.jar s3://dynamodb-dpl-us-west-2/emr-ddb-storage-handler/4.14.0/emr-dynamodb-tools-4.14.0-jar-with-dependencies.jar
```

## Izin Amazon EMR
<a name="w2aac52c17b9c11"></a>

Ketika Anda membuat IAM role kustom, hati-hati mempertimbangkan izin minimum yang diperlukan untuk klaster Anda untuk melakukan pekerjaan. Pastikan untuk memberikan akses ke sumber daya yang diperlukan, seperti file di Amazon S3 atau data di Amazon RDS, Amazon Redshift, atau DynamoDB. Jika Anda ingin mengatur `visibleToAllUsers` ke SALAH, peran Anda harus memiliki izin yang tepat untuk melakukannya. Perhatikan bahwa `DataPipelineDefaultRole` tidak memiliki izin ini. Anda harus memberikan penyatuan peran `DefaultDataPipelineResourceRole` dan `DataPipelineDefaultRole` sebagai peran objek `EmrCluster`, atau membuat peran Anda sendiri untuk tujuan ini.

## Sintaksis
<a name="emrcluster-syntax"></a>


****  

| Bidang Invokasi Objek | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| jadwal | Objek ini dipanggil dalam pelaksanaan interval jadwal. Tentukan referensi jadwal ke objek lain untuk mengatur urutan eksekusi dependensi untuk objek ini. Anda dapat memenuhi persyaratan ini dengan secara eksplisit mengatur jadwal pada objek, misalnya, dengan menentukan "schedule": \$1"ref": "DefaultSchedule"\$1. Dalam kebanyakan kasus, lebih baik untuk menempatkan referensi jadwal pada objek alur default sehingga semua objek mewarisi jadwal itu. Atau, jika alur memiliki pohon jadwal (jadwal dalam jadwal utama), Anda dapat membuat objek induk yang memiliki referensi jadwal. Untuk informasi selengkapnya tentang konfigurasi jadwal opsional contoh, lihat [https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html](https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html) | Objek Referensi, misalnya, "schedule":\$1"ref":"myScheduleId"\$1 | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| actionOnResourceKegagalan | Tindakan yang diambil setelah kegagalan sumber daya untuk sumber daya ini. Nilai yang benar adalah "retryall", yang mencoba semua tugas ke klaster untuk durasi tertentu, dan "retrynone". | String | 
| actionOnTaskKegagalan | Tindakan yang diambil setelah kegagalan tugas untuk sumber daya ini. Nilai yang valid adalah "melanjutkan", yang berarti tidak mengakhiri klaster, dan "mengakhiri." | String | 
| additionalMasterSecurityGroupIds | Pengidentifikasi kelompok keamanan master tambahan dari cluster EMR, yang mengikuti formulir sg-01. XXXX6a Untuk informasi selengkapnya, lihat [Amazon EMR Grup Keamanan Tambahan](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-additional-sec-groups.html) di Panduan Manajemen Amazon EMR. | String | 
| additionalSlaveSecurityGroupIds | Pengenal kelompok keamanan budak tambahan dari klaster EMR, yang mengikuti bentuk sg-01XXXX6a. | String | 
| amiVersion | Versi Amazon Machine Image (AMI) yang menggunakan Amazon EMR untuk menginstal simpul klaster. Untuk informasi lebih lanjut, lihat [Panduan Manajemen Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/). | String | 
| aplikasi | Aplikasi untuk diinstal di klaster dengan argumen yang dipisahkan koma. Secara default, Hive dan Pig diinstal. Parameter ini hanya berlaku untuk Amazon EMR versi 4.0 dan yang lebih baru. | String | 
| attemptStatus | Status yang paling baru dilaporkan dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel, maka aktivitas jarak jauh yang tidak lengkap dalam waktu mulai yang ditetapkan mungkin dicoba lagi. | Periode | 
| availabilityZone | Availability Zone tempat menjalankan klaster. | String | 
| bootstrapAction | Tindakan untuk dijalankan ketika klaster dimulai. Anda dapat menentukan argumen yang dipisahkan koma. Untuk menentukan beberapa tindakan, hingga 255, menambahkan beberapa bidang bootstrapAction. Perilaku defaultnya adalah memulai klaster tanpa tindakan bootstrap. | String | 
| konfigurasi | Konfigurasi untuk klaster Amazon EMR. Parameter ini hanya berlaku untuk Amazon EMR versi 4.0 dan yang lebih baru. | Objek Referensi, misalnya, "configuration":\$1"ref":"myEmrConfigurationId"\$1 | 
| coreInstanceBidHarga | Harga spot maksimum yang bersedia Anda bayarkan untuk Instans Amazon EC2. Jika harga tawaran ditentukan, Amazon EMR menggunakan Instans Spot untuk grup instans. Ditentukan dalam USD. | String | 
| coreInstanceCount | Jumlah simpul inti yang digunakan untuk klaster. | Bilangan Bulat | 
| coreInstanceType | Tipe instans Amazon EC2 yang digunakan untuk simpul inti. Lihat [Instans Amazon EC2 yang Didukung untuk klaster Amazon EMR](dp-emr-supported-instance-types.md). | String | 
| coreGroupConfiguration | Konfigurasi untuk grup instans inti klaster Amazon EMR. Parameter ini hanya berlaku untuk Amazon EMR versi 4.0 dan yang lebih baru. | Objek Referensi, misalnya “configuration”: \$1“ref”: “myEmrConfigurationId”\$1 | 
| coreEbsConfiguration | Konfigurasi untuk volume Amazon EBS yang akan melekat pada masing-masing simpul inti dalam kelompok inti di klaster Amazon EMR. Untuk informasi selengkapnya, lihat [Jenis Instans yang Mendukung Optimasi EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSOptimized.html) di Panduan Pengguna Amazon EC2. | Objek Referensi, misalnya “coreEbsConfiguration”: \$1“ref”: “myEbsConfiguration”\$1 | 
| customAmiId | Berlaku hanya untuk Amazon EMR rilis versi 5.7.0 dan yang lebih baru. Menentukan ID AMI dari AMI kustom yang akan digunakan saat Amazon EMR menyediakan instans Amazon EC2. Ini juga dapat digunakan sebagai pengganti tindakan bootstrap untuk menyesuaikan konfigurasi node cluster. Untuk informasi selengkapnya, lihat topik berikut di Panduan Manajemen EMR Amazon. [Menggunakan AMI kustom](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) | String | 
| EbsBlockDeviceConfig |  Konfigurasi perangkat blok Amazon EBS yang diminta terkait dengan grup instans. Termasuk sejumlah volume tertentu yang akan dikaitkan dengan setiap instans dalam grup instans. Termasuk `volumesPerInstance` dan `volumeSpecification`, di mana:  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/datapipeline/latest/DeveloperGuide/dp-object-emrcluster.html)  | Objek Referensi, misalnya “EbsBlockDeviceConfig”: \$1“ref”: “myEbsBlockDeviceConfig”\$1 | 
| emrManagedMasterSecurityGroupId | Pengenal grup keamanan utama tambahan dari klaster Amazon EMR, yang mengikuti bentuk sg-01XXXX6a. Untuk informasi selengkapnya, lihat [Mengonfigurasi Grup Keamanan](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-security-groups.html) dalam Panduan Manajemen Amazon EMR. | String | 
| emrManagedSlaveSecurityGroupId | Pengenal grup keamanan budak tambahan dari klaster Amazon EMR, yang mengikuti bentuk sg-01XXXX6a. | String | 
| enableDebugging | Mengaktifkan debugging pada klaster Amazon EMR. | String | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| hadoopSchedulerType | Jenis penjadwal klaster. Jenis yang valid adalah: PARALLEL\$1FAIR\$1SCHEDULING, PARALLEL\$1CAPACITY\$1SCHEDULING, dan DEFAULT\$1SCHEDULER. | Pencacahan | 
| httpProxy | Host proksi yang klien gunakan untuk ter-connect ke layanan AWS. | Objek Referensi, misalnya, “HttpProxy”: \$1"ref”:” myHttpProxy Id "\$1 | 
| initTimeout | Jumlah waktu untuk menunggu sumber daya dimulai.  | Periode | 
| keyPair | Pasangan kunci Amazon EC2 untuk digunakan untuk masuk ke simpul utama klaster Amazon EMR. | String | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| masterInstanceBidHarga | Harga spot maksimum yang bersedia Anda bayarkan untuk Instans Amazon EC2. Ini adalah nilai desimal antara 0 dan 20,00, eksklusif. Ditentukan dalam USD. Menetapkan nilai ini mengaktifkan Instans Spot untuk simpul utama klaster Amazon EMR. Jika harga tawaran ditentukan, Amazon EMR menggunakan Instans Spot untuk grup instans. | String | 
| masterInstanceType | Tipe instans Amazon EC2 yang digunakan untuk simpul utama. Lihat [Instans Amazon EC2 yang Didukung untuk klaster Amazon EMR](dp-emr-supported-instance-types.md). | String | 
| masterGroupConfiguration | Konfigurasi untuk grup instans utama klaster Amazon EMR. Parameter ini hanya berlaku untuk Amazon EMR versi 4.0 dan yang lebih baru. | Objek Referensi, misalnya “configuration”: \$1“ref”: “myEmrConfigurationId”\$1 | 
| masterEbsConfiguration | Konfigurasi untuk volume Amazon EBS yang akan melekat pada masing-masing simpul utama dalam grup utama di klaster Amazon EMR. Untuk informasi selengkapnya, lihat [Jenis Instans yang Mendukung Optimasi EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSOptimized.html) di Panduan Pengguna Amazon EC2. | Objek Referensi, misalnya “masterEbsConfiguration”: \$1“ref”: “myEbsConfiguration”\$1 | 
| maxActiveInstances | Jumlah maksimum instans aktif bersamaan dari suatu komponen. Re-runs tidak dihitung terhadap jumlah instans aktif. | Bilangan Bulat | 
| maximumRetries | Upaya jumlah maksimum mencoba lagi pada kegagalan. | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya, "onFail":\$1"ref":"myActionId"\$1 | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya, "onLateAction":\$1"ref":"myActionId"\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya, "onSuccess":\$1"ref":"myActionId"\$1 | 
| induk | Induk dari objek saat ini dari mana slot diwariskan. | Objek Referensi, misalnya. "parent":\$1"ref":"myBaseObjectId"\$1 | 
| pipelineLogUri | URI Amazon S3 (seperti 's3://BucketName/Key/ ') untuk mengunggah log untuk pipeline. | String | 
| region | Kode untuk wilayah tempat klaster Amazon EMR harus berjalan. Secara default, klaster berjalan di Wilayah yang sama dengan alur. Anda dapat menjalankan klaster di Wilayah yang sama sebagai set data bergantung.  | Pencacahan | 
| releaseLabel | Label rilis untuk klaster EMR. | String | 
| reportProgressTimeout | Timeout untuk panggilan berurutan kerja jarak jauh ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| resourceRole | Peran IAM yang AWS Data Pipeline digunakan untuk membuat cluster EMR Amazon. Peran defaultya adalah DataPipelineDefaultRole.  | String | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| peran | IAM role diteruskan ke Amazon EMR untuk membuat simpul EC2. | String | 
| runsOn | Bidang ini tidak diizinkan pada objek ini. | Objek Referensi, misalnya, "runsOn":\$1"ref":"myResourceId"\$1 | 
| SecurityConfiguration | Pengidentifikasi konfigurasi keamanan EMR yang akan diterapkan ke cluster. Parameter ini hanya berlaku untuk Amazon EMR versi 4.8.0 dan yang lebih baru. | String | 
| serviceAccessSecurityGroupId | Pengenal grup keamanan akses layanan klaster Amazon EMR.  | String. Ini mengikuti bentuk sg-01XXXX6a, misalnya, sg-1234abcd. | 
| scheduleType | Jenis jadwal mengizinkan Anda untuk menentukan apakah objek dalam definisi alur Anda harus dijadwalkan pada awal interval, atau akhir interval. Nilai adalah: cron, ondemand, dan timeseries. Penjadwalan timeseries berarti bahwa instans dijadwalkan pada akhir setiap interval. Penjadwalan cron berarti bahwa instans dijadwalkan pada awal setiap interval. Jadwal ondemand mengizinkan Anda untuk menjalankan alur satu kali per aktivasi. Anda tidak perlu meng-klon atau membuat ulang alur untuk menjalankannya lagi. Jika Anda menggunakan jadwal ondemand itu harus ditentukan dalam objek default dan harus menjadi satu-satunya scheduleType yang ditentukan untuk objek dalam alur. Untuk menggunakan alur ondemand, panggil operasi ActivatePipeline untuk setiap putaran berikutnya. | Pencacahan | 
| subnetId | Pengenal subnet ke tempat untuk meluncurkan klaster Amazon EMR. | String | 
| supportedProducts | Parameter yang menginstal perangkat lunak pihak ke tiga pada klaster Amazon EMR, misalnya, distribusi pihak ke tiga Hadoop. | String | 
| taskInstanceBidHarga | Harga spot maksimum yang bersedia Anda bayarkan untuk instans EC2. Nilai desimal antara 0 dan 20,00, eksklusif. Ditentukan dalam USD. Jika harga tawaran ditentukan, Amazon EMR menggunakan Instans Spot untuk grup instans. | String | 
| taskInstanceCount | Jumlah simpul tugas untuk digunakan untuk klaster Amazon EMR. | Bilangan Bulat | 
| taskInstanceType | Tipe instans Amazon EC2 yang digunakan untuk simpul tugas. | String | 
| taskGroupConfiguration | Konfigurasi untuk grup instans tugas klaster Amazon EMR. Parameter ini hanya berlaku untuk Amazon EMR versi 4.0 dan yang lebih baru.  | Objek Referensi, misalnya “configuration”: \$1“ref”: “myEmrConfigurationId”\$1 | 
| taskEbsConfiguration | Konfigurasi untuk volume Amazon EBS yang akan melekat pada masing-masing simpul tugas dalam grup tugas di klaster Amazon EMR. Untuk informasi selengkapnya, lihat [Jenis Instans yang Mendukung Optimasi EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSOptimized.html) di Panduan Pengguna Amazon EC2. | Objek Referensi, misalnya “taskEbsConfiguration”: \$1“ref”: “myEbsConfiguration”\$1 | 
| terminateAfter | Mengakhiri sumber daya setelah berjam-jam ini. | Bilangan Bulat | 
| VolumeSpecification |   Spesifikasi volume Amazon EBS, seperti jenis volume, IOPS, dan ukuran dalam Gigibytes (GiB) yang akan diminta untuk volume Amazon EBS terlampir ke instans Amazon EC2 dalam klaster Amazon EMR. Simpul bisa menjadi inti, utama atau simpul tugas.  `VolumeSpecification` termasuk: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/datapipeline/latest/DeveloperGuide/dp-object-emrcluster.html)  | Objek Referensi, misalnya “VolumeSpecification”: \$1“ref”: “myVolumeSpecification”\$1 | 
| useOnDemandOnLastAttempt | Pada upaya terakhir untuk meminta sumber daya, buat permintaan untuk Instans Sesuai Permintaan daripada Instans Spot. Hal ini memastikan bahwa jika semua upaya sebelumnya telah gagal, upaya terakhir tidak terganggu.  | Boolean | 
| workerGroup | Bidang tidak diizinkan pada objek ini. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya, “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya, "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah tersedia hanya pada upaya aktivitas Amazon EMR. | String | 
| errorId | ID kesalahan jika objek ini gagal. | String | 
| errorMessage | Pesan galat jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| @failureReason | Alasan kegagalan sumber daya. | String | 
| @finishedTime | Waktu saat objek ini menyelesaikan eksekusinya. | DateTime | 
| hadoopJobLog | Log tugas Hadoop yang tersedia pada upaya untuk aktivitas Amazon EMR. | String | 
| @healthStatus | Status kondisi objek yang mencerminkan keberhasilan atau kegagalan instans objek terakhir yang mencapai keadaan dihentikan. | String | 
| @healthStatusFromInstanceId | ID dari objek instans terakhir yang mencapai keadaan dihentikan. | String | 
| @ healthStatusUpdated Waktu | Waktu di mana status kondisi diperbarui terakhir kali. | DateTime | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| @lastDeactivatedTime | Waktu di mana objek ini terakhir dinonaktifkan. | DateTime | 
| @ latestCompletedRun Waktu | Waktu proses terakhir yang eksekusinya selesai. | DateTime | 
| @latestRunTime | Waktu proses terakhir untuk eksekusi yang dijadwalkan. | DateTime | 
| @nextRunTime | Waktu run yang akan dijadwalkan berikutnya. | DateTime | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan akhir waktu untuk objek. | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur dengan objek yang dibuat. | String | 
| @waitingOn | Deskripsi daftar dependensi yang menunggu objek ini. | Objek Referensi, misalnya, “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Tempat objek dalam siklus hidup. objek komponen memunculkan objek instans, yang mengeksekusi objek percobaan. | String | 

# Contoh
<a name="emrcluster-example"></a>

Berikut ini adalah contoh jenis objek ini.

**Topics**
+ [Meluncurkan klaster Amazon EMR dengan hadoopVersion](emrcluster-example-launch.md)
+ [Meluncurkan klaster Amazon EMR dengan label rilis emr-4.x atau lebih besar](emrcluster-example-release-label.md)
+ [Menginstal perangkat lunak tambahan pada klaster Amazon EMR Anda](emrcluster-example-install-software.md)
+ [Nonaktifkan enkripsi sisi server pada rilis 3.x](emrcluster-example1-disable-encryption.md)
+ [Nonaktifkan enkripsi sisi server pada rilis 4.x](emrcluster-example2-disable-encryption.md)
+ [Konfigurasikan Hadoop KMS ACLs dan buat zona enkripsi di HDFS](emrcluster-example-hadoop-kms.md)
+ [Tentukan IAM role khusus](emrcluster-example-custom-iam-roles.md)
+ [Menggunakan EmrCluster Sumber Daya di AWS SDK for Java](emrcluster-example-java.md)
+ [Mengonfigurasi klaster Amazon EMR di subnet privat](emrcluster-example-private-subnet.md)
+ [Melampirkan volume EBS ke simpul klaster](emrcluster-example-ebs.md)

# Meluncurkan klaster Amazon EMR dengan hadoopVersion
<a name="emrcluster-example-launch"></a>

**Example**  <a name="example1"></a>
Contoh berikut meluncurkan sebuah klaster Amazon EMR menggunakan AMI versi 1.0 dan Hadoop 0.20.  

```
{
  "id" : "MyEmrCluster",
  "type" : "EmrCluster",
  "hadoopVersion" : "0.20",
  "keyPair" : "my-key-pair",
  "masterInstanceType" : "m3.xlarge",
  "coreInstanceType" : "m3.xlarge",
  "coreInstanceCount" : "10",
  "taskInstanceType" : "m3.xlarge",
  "taskInstanceCount": "10",
  "bootstrapAction" : ["s3://Region.elasticmapreduce/bootstrap-actions/configure-hadoop,arg1,arg2,arg3","s3://Region.elasticmapreduce/bootstrap-actions/configure-hadoop/configure-other-stuff,arg1,arg2"]
}
```

# Meluncurkan klaster Amazon EMR dengan label rilis emr-4.x atau lebih besar
<a name="emrcluster-example-release-label"></a>

**Example**  
Contoh berikut meluncurkan klaster Amazon EMR menggunakan bidang `releaseLabel` yang lebih baru:  

```
{
  "id" : "MyEmrCluster",
  "type" : "EmrCluster",
  "keyPair" : "my-key-pair",
  "masterInstanceType" : "m3.xlarge",
  "coreInstanceType" : "m3.xlarge",
  "coreInstanceCount" : "10",
  "taskInstanceType" : "m3.xlarge",
  "taskInstanceCount": "10",
  "releaseLabel": "emr-4.1.0",
  "applications": ["spark", "hive", "pig"],
  "configuration": {"ref":"myConfiguration"}  
}
```

# Menginstal perangkat lunak tambahan pada klaster Amazon EMR Anda
<a name="emrcluster-example-install-software"></a>

**Example**  <a name="example2"></a>
`EmrCluster` menyediakan bidang `supportedProducts` yang menginstal perangkat lunak pihak ke tiga pada klaster Amazon EMR, misalnya, memungkinkan Anda menginstal distribusi kustom Hadoop, seperti MapR. Ia menerima daftar dipisahkan koma argumen untuk perangkat lunak pihak ke tiga untuk membaca dan bertindak. Contoh berikut menunjukkan cara menggunakan bidang `supportedProducts` dari `EmrCluster` untuk membuat klaster edisi MapR M3 kustom dengan Karmasphere Analytics terinstal, dan menjalankan objek `EmrActivity` di atasnya.  

```
{
    "id": "MyEmrActivity",
    "type": "EmrActivity",
    "schedule": {"ref": "ResourcePeriod"},
    "runsOn": {"ref": "MyEmrCluster"},
    "postStepCommand": "echo Ending job >> /mnt/var/log/stepCommand.txt",    
    "preStepCommand": "echo Starting job > /mnt/var/log/stepCommand.txt",
    "step": "/home/hadoop/contrib/streaming/hadoop-streaming.jar,-input,s3n://elasticmapreduce/samples/wordcount/input,-output, \
     hdfs:///output32113/,-mapper,s3n://elasticmapreduce/samples/wordcount/wordSplitter.py,-reducer,aggregate"
  },
  {    
    "id": "MyEmrCluster",
    "type": "EmrCluster",
    "schedule": {"ref": "ResourcePeriod"},
    "supportedProducts": ["mapr,--edition,m3,--version,1.2,--key1,value1","karmasphere-enterprise-utility"],
    "masterInstanceType": "m3.xlarge",
    "taskInstanceType": "m3.xlarge"
}
```

# Nonaktifkan enkripsi sisi server pada rilis 3.x
<a name="emrcluster-example1-disable-encryption"></a>

**Example**  <a name="example3"></a>
`EmrCluster`Aktivitas dengan Hadoop versi 2.x yang dibuat oleh AWS Data Pipeline mengaktifkan enkripsi sisi server secara default. Jika Anda ingin nonaktifkan enkripsi sisi server, Anda harus menentukan tindakan bootstrap dalam definisi objek klaster.  
Contoh berikut membuat aktivitas `EmrCluster` dengan enkripsi sisi server dinonaktifkan:  

```
{  
   "id":"NoSSEEmrCluster",
   "type":"EmrCluster",
   "hadoopVersion":"2.x",
   "keyPair":"my-key-pair",
   "masterInstanceType":"m3.xlarge",
   "coreInstanceType":"m3.large",
   "coreInstanceCount":"10",
   "taskInstanceType":"m3.large",
   "taskInstanceCount":"10",
   "bootstrapAction":["s3://Region.elasticmapreduce/bootstrap-actions/configure-hadoop,-e, fs.s3.enableServerSideEncryption=false"]
}
```

# Nonaktifkan enkripsi sisi server pada rilis 4.x
<a name="emrcluster-example2-disable-encryption"></a>

**Example**  <a name="example4"></a>
Anda harus nonaktifkan enkripsi sisi server menggunakan objek `EmrConfiguration`.  
Contoh berikut membuat aktivitas `EmrCluster` dengan enkripsi sisi server dinonaktifkan:  

```
   {
      "name": "ReleaseLabelCluster",
      "releaseLabel": "emr-4.1.0",
      "applications": ["spark", "hive", "pig"],
      "id": "myResourceId",
      "type": "EmrCluster",
      "configuration": {
        "ref": "disableSSE"
      }
    },
    {
      "name": "disableSSE",
      "id": "disableSSE",
      "type": "EmrConfiguration",
      "classification": "emrfs-site",
      "property": [{
        "ref": "enableServerSideEncryption"
      }
      ]
    },
    {
      "name": "enableServerSideEncryption",
      "id": "enableServerSideEncryption",
      "type": "Property",
      "key": "fs.s3.enableServerSideEncryption",
      "value": "false"
    }
```

# Konfigurasikan Hadoop KMS ACLs dan buat zona enkripsi di HDFS
<a name="emrcluster-example-hadoop-kms"></a>

**Example**  <a name="example5"></a>
Objek berikut dibuat ACLs untuk Hadoop KMS dan membuat zona enkripsi dan kunci enkripsi yang sesuai di HDFS:  

```
{
      "name": "kmsAcls",
      "id": "kmsAcls",
      "type": "EmrConfiguration",
      "classification": "hadoop-kms-acls",
      "property": [
        {"ref":"kmsBlacklist"},
        {"ref":"kmsAcl"}
      ]
    },
    {
      "name": "hdfsEncryptionZone",
      "id": "hdfsEncryptionZone",
      "type": "EmrConfiguration",
      "classification": "hdfs-encryption-zones",
      "property": [
        {"ref":"hdfsPath1"},
        {"ref":"hdfsPath2"}
      ]
    },
    {
      "name": "kmsBlacklist",
      "id": "kmsBlacklist",
      "type": "Property",
      "key": "hadoop.kms.blacklist.CREATE",
      "value": "foo,myBannedUser"
    },
    {
      "name": "kmsAcl",
      "id": "kmsAcl",
      "type": "Property",
      "key": "hadoop.kms.acl.ROLLOVER",
      "value": "myAllowedUser"
    },
    {
      "name": "hdfsPath1",
      "id": "hdfsPath1",
      "type": "Property",
      "key": "/myHDFSPath1",
      "value": "path1_key"
    },
    {
      "name": "hdfsPath2",
      "id": "hdfsPath2",
      "type": "Property",
      "key": "/myHDFSPath2",
      "value": "path2_key"
    }
```

# Tentukan IAM role khusus
<a name="emrcluster-example-custom-iam-roles"></a>

**Example**  <a name="example6"></a>
Secara default, AWS Data Pipeline diteruskan `DataPipelineDefaultRole` sebagai peran layanan EMR Amazon dan `DataPipelineDefaultResourceRole` sebagai profil instans Amazon EC2 untuk membuat sumber daya atas nama Anda. Namun, Anda dapat membuat peran layanan EMR Amazon khusus dan profil instans khusus dan menggunakannya sebagai gantinya. AWS Data Pipeline harus memiliki izin yang cukup untuk membuat cluster menggunakan peran khusus, dan Anda harus menambahkan AWS Data Pipeline sebagai entitas tepercaya.  
Contoh berikut objek menentukan peran kustom untuk klaster Amazon EMR:  

```
{  
   "id":"MyEmrCluster",
   "type":"EmrCluster",
   "hadoopVersion":"2.x",
   "keyPair":"my-key-pair",
   "masterInstanceType":"m3.xlarge",
   "coreInstanceType":"m3.large",
   "coreInstanceCount":"10",
   "taskInstanceType":"m3.large",
   "taskInstanceCount":"10",
   "role":"emrServiceRole",
   "resourceRole":"emrInstanceProfile"
}
```

# Menggunakan EmrCluster Sumber Daya di AWS SDK for Java
<a name="emrcluster-example-java"></a>

**Example**  <a name="example7"></a>
Contoh berikut menunjukkan cara menggunakan `EmrCluster` dan `EmrActivity` untuk membuat klaster Amazon EMR 4.x untuk menjalankan langkah Spark menggunakan Java SDK:  

```
public class dataPipelineEmr4 {

  public static void main(String[] args) {
    
	AWSCredentials credentials = null;
	credentials = new ProfileCredentialsProvider("/path/to/AwsCredentials.properties","default").getCredentials();
	DataPipelineClient dp = new DataPipelineClient(credentials);
	CreatePipelineRequest createPipeline = new CreatePipelineRequest().withName("EMR4SDK").withUniqueId("unique");
	CreatePipelineResult createPipelineResult = dp.createPipeline(createPipeline);
	String pipelineId = createPipelineResult.getPipelineId();
    
	PipelineObject emrCluster = new PipelineObject()
	    .withName("EmrClusterObj")
	    .withId("EmrClusterObj")
	    .withFields(
			new Field().withKey("releaseLabel").withStringValue("emr-4.1.0"),
			new Field().withKey("coreInstanceCount").withStringValue("3"),
			new Field().withKey("applications").withStringValue("spark"),
			new Field().withKey("applications").withStringValue("Presto-Sandbox"),
			new Field().withKey("type").withStringValue("EmrCluster"),
			new Field().withKey("keyPair").withStringValue("myKeyName"),
			new Field().withKey("masterInstanceType").withStringValue("m3.xlarge"),
			new Field().withKey("coreInstanceType").withStringValue("m3.xlarge")        
			);
  
	PipelineObject emrActivity = new PipelineObject()
	    .withName("EmrActivityObj")
	    .withId("EmrActivityObj")
	    .withFields(
			new Field().withKey("step").withStringValue("command-runner.jar,spark-submit,--executor-memory,1g,--class,org.apache.spark.examples.SparkPi,/usr/lib/spark/lib/spark-examples.jar,10"),
			new Field().withKey("runsOn").withRefValue("EmrClusterObj"),
			new Field().withKey("type").withStringValue("EmrActivity")
			);
      
	PipelineObject schedule = new PipelineObject()
	    .withName("Every 15 Minutes")
	    .withId("DefaultSchedule")
	    .withFields(
			new Field().withKey("type").withStringValue("Schedule"),
			new Field().withKey("period").withStringValue("15 Minutes"),
			new Field().withKey("startAt").withStringValue("FIRST_ACTIVATION_DATE_TIME")
			);
      
	PipelineObject defaultObject = new PipelineObject()
	    .withName("Default")
	    .withId("Default")
	    .withFields(
			new Field().withKey("failureAndRerunMode").withStringValue("CASCADE"),
			new Field().withKey("schedule").withRefValue("DefaultSchedule"),
			new Field().withKey("resourceRole").withStringValue("DataPipelineDefaultResourceRole"),
			new Field().withKey("role").withStringValue("DataPipelineDefaultRole"),
			new Field().withKey("pipelineLogUri").withStringValue("s3://myLogUri"),
			new Field().withKey("scheduleType").withStringValue("cron")
			);     
      
	List<PipelineObject> pipelineObjects = new ArrayList<PipelineObject>();
    
	pipelineObjects.add(emrActivity);
	pipelineObjects.add(emrCluster);
	pipelineObjects.add(defaultObject);
	pipelineObjects.add(schedule);
    
	PutPipelineDefinitionRequest putPipelineDefintion = new PutPipelineDefinitionRequest()
	    .withPipelineId(pipelineId)
	    .withPipelineObjects(pipelineObjects);
    
	PutPipelineDefinitionResult putPipelineResult = dp.putPipelineDefinition(putPipelineDefintion);
	System.out.println(putPipelineResult);
    
	ActivatePipelineRequest activatePipelineReq = new ActivatePipelineRequest()
	    .withPipelineId(pipelineId);
	ActivatePipelineResult activatePipelineRes = dp.activatePipeline(activatePipelineReq);
	
      System.out.println(activatePipelineRes);
      System.out.println(pipelineId);
    
    }

}
```

# Mengonfigurasi klaster Amazon EMR di subnet privat
<a name="emrcluster-example-private-subnet"></a>

**Example**  <a name="example8"></a>
Contoh ini mencakup konfigurasi yang meluncurkan klaster ke subnet privat di VPC. Untuk informasi selengkapnya, lihat [Peluncuran Klaster Amazon EMR ke VPC](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-vpc-launching-job-flows.html) di *Panduan Pengelolaan Amazon EMR*. Konfigurasi ini opsional. Anda dapat menggunakannya dalam setiap alur yang menggunakan objek `EmrCluster`.  
Untuk meluncurkan klaster Amazon EMR di subnet privat, tentukan `SubnetId`, `emrManagedMasterSecurityGroupId`, `emrManagedSlaveSecurityGroupId`, dan `serviceAccessSecurityGroupId` di konfigurasi `EmrCluster` Anda.  

```
{
  "objects": [
    {
      "output": {
        "ref": "S3BackupLocation"
      },
      "input": {
        "ref": "DDBSourceTable"
      },
      "maximumRetries": "2",
      "name": "TableBackupActivity",
      "step": "s3://dynamodb-emr-#{myDDBRegion}/emr-ddb-storage-handler/2.1.0/emr-ddb-2.1.0.jar,org.apache.hadoop.dynamodb.tools.DynamoDbExport,#{output.directoryPath},#{input.tableName},#{input.readThroughputPercent}",
      "id": "TableBackupActivity",
      "runsOn": {
        "ref": "EmrClusterForBackup"
      },
      "type": "EmrActivity",
      "resizeClusterBeforeRunning": "false"
    },
    {
      "readThroughputPercent": "#{myDDBReadThroughputRatio}",
      "name": "DDBSourceTable",
      "id": "DDBSourceTable",
      "type": "DynamoDBDataNode",
      "tableName": "#{myDDBTableName}"
    },
    {
      "directoryPath": "#{myOutputS3Loc}/#{format(@scheduledStartTime, 'YYYY-MM-dd-HH-mm-ss')}",
      "name": "S3BackupLocation",
      "id": "S3BackupLocation",
      "type": "S3DataNode"
    },
    {
      "name": "EmrClusterForBackup",
      "coreInstanceCount": "1",
      "taskInstanceCount": "1",
      "taskInstanceType": "m4.xlarge",
      "coreInstanceType": "m4.xlarge",
      "releaseLabel": "emr-4.7.0",
      "masterInstanceType": "m4.xlarge",
      "id": "EmrClusterForBackup",
      "subnetId": "#{mySubnetId}",
      "emrManagedMasterSecurityGroupId": "#{myMasterSecurityGroup}",
      "emrManagedSlaveSecurityGroupId": "#{mySlaveSecurityGroup}",
      "serviceAccessSecurityGroupId": "#{myServiceAccessSecurityGroup}",
      "region": "#{myDDBRegion}",
      "type": "EmrCluster",
      "keyPair": "user-key-pair"
    },
    {
      "failureAndRerunMode": "CASCADE",
      "resourceRole": "DataPipelineDefaultResourceRole",
      "role": "DataPipelineDefaultRole",
      "pipelineLogUri": "#{myPipelineLogUri}",
      "scheduleType": "ONDEMAND",
      "name": "Default",
      "id": "Default"
    }
  ],
  "parameters": [
    {
      "description": "Output S3 folder",
      "id": "myOutputS3Loc",
      "type": "AWS::S3::ObjectKey"
    },
    {
      "description": "Source DynamoDB table name",
      "id": "myDDBTableName",
      "type": "String"
    },
    {
      "default": "0.25",
      "watermark": "Enter value between 0.1-1.0",
      "description": "DynamoDB read throughput ratio",
      "id": "myDDBReadThroughputRatio",
      "type": "Double"
    },
    {
      "default": "us-east-1",
      "watermark": "us-east-1",
      "description": "Region of the DynamoDB table",
      "id": "myDDBRegion",
      "type": "String"
    }
  ],
  "values": {
     "myDDBRegion": "us-east-1",
      "myDDBTableName": "ddb_table",
      "myDDBReadThroughputRatio": "0.25",
      "myOutputS3Loc": "s3://s3_path",
      "mySubnetId": "subnet_id",
      "myServiceAccessSecurityGroup":  "service access security group",
      "mySlaveSecurityGroup": "slave security group",
      "myMasterSecurityGroup": "master security group",
      "myPipelineLogUri": "s3://s3_path"
  }
}
```

# Melampirkan volume EBS ke simpul klaster
<a name="emrcluster-example-ebs"></a>

**Example**  <a name="example8"></a>
Anda dapat melampirkan volume EBS untuk semua jenis simpul di klaster EMR dalam alur Anda. Untuk melampirkan volume EBS ke simpul, gunakan `coreEbsConfiguration`, `masterEbsConfiguration`, dan `TaskEbsConfiguration` di konfigurasi `EmrCluster` Anda.   
Contoh klaster Amazon EMR ini menggunakan volume Amazon EBS untuk master, tugas, dan simpul intinya. Untuk informasi selengkapnya, lihat [Volume Amazon EBS di Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-storage.html) di *Panduan Pengelolaan Amazon EMR*.  
Konfigurasi ini bersifat opsional. Anda dapat menggunakannya dalam setiap alur yang menggunakan objek `EmrCluster`.  
Dalam alur, klik konfigurasi objek `EmrCluster`, memilih **Konfigurasi Utama EBS**, **Konfigurasi Inti EBS**, atau **Konfigurasi EBS Tugas**, dan memasukkan detail konfigurasi yang serupa dengan contoh berikut.  

```
{
  "objects": [
    {
      "output": {
        "ref": "S3BackupLocation"
      },
      "input": {
        "ref": "DDBSourceTable"
      },
      "maximumRetries": "2",
      "name": "TableBackupActivity",
      "step": "s3://dynamodb-emr-#{myDDBRegion}/emr-ddb-storage-handler/2.1.0/emr-ddb-2.1.0.jar,org.apache.hadoop.dynamodb.tools.DynamoDbExport,#{output.directoryPath},#{input.tableName},#{input.readThroughputPercent}",
      "id": "TableBackupActivity",
      "runsOn": {
        "ref": "EmrClusterForBackup"
      },
      "type": "EmrActivity",
      "resizeClusterBeforeRunning": "false"
    },
    {
      "readThroughputPercent": "#{myDDBReadThroughputRatio}",
      "name": "DDBSourceTable",
      "id": "DDBSourceTable",
      "type": "DynamoDBDataNode",
      "tableName": "#{myDDBTableName}"
    },
    {
      "directoryPath": "#{myOutputS3Loc}/#{format(@scheduledStartTime, 'YYYY-MM-dd-HH-mm-ss')}",
      "name": "S3BackupLocation",
      "id": "S3BackupLocation",
      "type": "S3DataNode"
    },
    {
      "name": "EmrClusterForBackup",
      "coreInstanceCount": "1",
      "taskInstanceCount": "1",
      "taskInstanceType": "m4.xlarge",
      "coreInstanceType": "m4.xlarge",
      "releaseLabel": "emr-4.7.0",
      "masterInstanceType": "m4.xlarge",
      "id": "EmrClusterForBackup",
      "subnetId": "#{mySubnetId}",
      "emrManagedMasterSecurityGroupId": "#{myMasterSecurityGroup}",
      "emrManagedSlaveSecurityGroupId": "#{mySlaveSecurityGroup}",
      "region": "#{myDDBRegion}",
      "type": "EmrCluster",
      "coreEbsConfiguration": {
        "ref": "EBSConfiguration"
      },
      "masterEbsConfiguration": {
        "ref": "EBSConfiguration"
      },
      "taskEbsConfiguration": {
        "ref": "EBSConfiguration"
      },
      "keyPair": "user-key-pair"
    },
    {
       "name": "EBSConfiguration",
        "id": "EBSConfiguration",
        "ebsOptimized": "true",
        "ebsBlockDeviceConfig" : [
            { "ref": "EbsBlockDeviceConfig" }
        ],
        "type": "EbsConfiguration"
    },
    {
        "name": "EbsBlockDeviceConfig",
        "id": "EbsBlockDeviceConfig",
        "type": "EbsBlockDeviceConfig",
        "volumesPerInstance" : "2",
        "volumeSpecification" : {
            "ref": "VolumeSpecification"
        }
    },
    {
      "name": "VolumeSpecification",
      "id": "VolumeSpecification",
      "type": "VolumeSpecification",
      "sizeInGB": "500",
      "volumeType": "io1",
      "iops": "1000"
    },
    {
      "failureAndRerunMode": "CASCADE",
      "resourceRole": "DataPipelineDefaultResourceRole",
      "role": "DataPipelineDefaultRole",
      "pipelineLogUri": "#{myPipelineLogUri}",
      "scheduleType": "ONDEMAND",
      "name": "Default",
      "id": "Default"
    }
  ],
  "parameters": [
    {
      "description": "Output S3 folder",
      "id": "myOutputS3Loc",
      "type": "AWS::S3::ObjectKey"
    },
    {
      "description": "Source DynamoDB table name",
      "id": "myDDBTableName",
      "type": "String"
    },
    {
      "default": "0.25",
      "watermark": "Enter value between 0.1-1.0",
      "description": "DynamoDB read throughput ratio",
      "id": "myDDBReadThroughputRatio",
      "type": "Double"
    },
    {
      "default": "us-east-1",
      "watermark": "us-east-1",
      "description": "Region of the DynamoDB table",
      "id": "myDDBRegion",
      "type": "String"
    }
  ],
  "values": {
     "myDDBRegion": "us-east-1",
      "myDDBTableName": "ddb_table",
      "myDDBReadThroughputRatio": "0.25",
      "myOutputS3Loc": "s3://s3_path",
      "mySubnetId": "subnet_id",
      "mySlaveSecurityGroup": "slave security group",
      "myMasterSecurityGroup": "master security group",
      "myPipelineLogUri": "s3://s3_path"
  }
}
```

## Lihat Juga
<a name="emrcluster-seealso"></a>
+ [EmrActivity](dp-object-emractivity.md)

# HttpProxy
<a name="dp-object-httpproxy"></a>

HttpProxy memungkinkan Anda untuk mengkonfigurasi proxy Anda sendiri dan membuat Task Runner mengakses AWS Data Pipeline layanan melalui itu. Anda tidak perlu mengonfigurasi Task Runner yang sedang berjalan dengan informasi ini.

## Contoh dari sebuah HttpProxy in TaskRunner
<a name="example9"></a>

Definisi alur berikut menunjukkan objek `HttpProxy`:

```
{
  "objects": [
    {
      "schedule": {
        "ref": "Once"
      },
      "pipelineLogUri": "s3://myDPLogUri/path",
      "name": "Default",
      "id": "Default"
    },
    {
      "name": "test_proxy",
      "hostname": "hostname",
      "port": "port",
      "username": "username",
      "*password": "password",
      "windowsDomain": "windowsDomain",
      "type": "HttpProxy",
      "id": "test_proxy",
    },
    {
      "name": "ShellCommand",
      "id": "ShellCommand",
      "runsOn": {
        "ref": "Resource"
      },
      "type": "ShellCommandActivity",
      "command": "echo 'hello world' "
    },
    {
      "period": "1 day",
      "startDateTime": "2013-03-09T00:00:00",
      "name": "Once",
      "id": "Once",
      "endDateTime": "2013-03-10T00:00:00",
      "type": "Schedule"
    },
    {
      "role": "dataPipelineRole",
      "httpProxy": {
        "ref": "test_proxy"
      },
      "actionOnResourceFailure": "retrynone",
      "maximumRetries": "0",
      "type": "Ec2Resource",
      "terminateAfter": "10 minutes",
      "resourceRole": "resourceRole",
      "name": "Resource",
      "actionOnTaskFailure": "terminate",
      "securityGroups": "securityGroups",
      "keyPair": "keyPair",
      "id": "Resource",
      "region": "us-east-1"
    }
  ],
  "parameters": []
}
```

## Sintaksis
<a name="httpproxy-slots"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| hostname | Host dari proxy yang klien akan gunakan untuk connect ke Layanan AWS. | String | 
| port | Port dari host proxy yang klien akan gunakan untuk connect ke Layanan AWS. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| \$1kata sandi | Kata sandi untuk proxy. | String | 
| s3 NoProxy | Nonaktifkan proxy HTTP saat connect ke Amazon S3 | Boolean | 
| nama pengguna | Nama pengguna untuk proxy. | String | 
| windowsDomain | Nama domain Windows untuk NTLM Proxy. | String | 
| windowsWorkgroup | Nama grup kerja Windows untuk NTLM Proxy. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur objek dibuat dengan. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

# Prasyarat
<a name="dp-object-preconditions"></a>

Berikut ini adalah objek AWS Data Pipeline prasyarat:

**Topics**
+ [Dynamo Ada DBData](dp-dynamodbdataexists.md)
+ [Dynamo Ada DBTable](dp-dynamodbtableexists.md)
+ [Exists](dp-object-exists.md)
+ [S3 KeyExists](dp-object-S3KeyExists.md)
+ [S3 PrefixNotEmpty](dp-object-s3prefixnotempty.md)
+ [ShellCommandPrecondition](dp-object-shellcommandprecondition.md)

# Dynamo Ada DBData
<a name="dp-dynamodbdataexists"></a>

 Prasyarat untuk memeriksa data yang ada di tabel DynamoDB. 

## Sintaksis
<a name="dp-dynamodbdataexists-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| peran | Menentukan peran yang akan digunakan untuk mengeksekusi prasyarat tersebut. | String | 
| tableName | Tabel DynamoDB untuk memeriksa. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| preconditionTimeout | Periode dari awal setelah prasyarat ditandai sebagai gagal jika masih belum terpenuhi | Periode | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai ketergantungan tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| currentRetryCount | Berapa kali prasyarat dicoba dalam upaya ini. | String | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| lastRetryTime | Terakhir kali ketika prasyarat dicoba dalam upaya ini. | String | 
| simpul | Simpul yang prasyarat ini sedang dilakukan | Objek Referensi, misalnya “node”: \$1"ref”:” myRunnableObject Id "\$1 | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan akhir waktu untuk objek. | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

# Dynamo Ada DBTable
<a name="dp-dynamodbtableexists"></a>

 Prasyarat untuk memeriksa bahwa tabel DynamoDB ada. 

## Sintaksis
<a name="dp-dynamodbtableexists-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| peran | Menentukan peran yang akan digunakan untuk mengeksekusi prasyarat tersebut. | String | 
| tableName | Tabel DynamoDB untuk memeriksa. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| preconditionTimeout | Periode dari awal setelah prasyarat ditandai sebagai gagal jika masih belum terpenuhi | Periode | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai ketergantungan tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| currentRetryCount | Berapa kali prasyarat dicoba dalam upaya ini. | String | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| lastRetryTime | Terakhir kali ketika prasyarat dicoba dalam upaya ini. | String | 
| simpul | Simpul yang prasyarat ini sedang dilakukan | Objek Referensi, misalnya “node”: \$1"ref”:” myRunnableObject Id "\$1 | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk objek | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

# Exists
<a name="dp-object-exists"></a>

 Memeriksa apakah simpul data ada. 

**catatan**  
Kami rekomendasikan agar Anda menggunakan prasyarat yang terkelola sistem. Untuk informasi selengkapnya, lihat [Prasyarat](dp-concepts-preconditions.md).

## Contoh
<a name="exists-example"></a>

Berikut adalah contoh dari jenis objek ini. Objek `InputData` mereferensikan objek ini, `Ready`, ditambah objek lain yang akan Anda tetapkan dalam file definisi alur yang sama. `CopyPeriod` adalah objek `Schedule`.

```
{
  "id" : "InputData",
  "type" : "S3DataNode",
  "schedule" : { "ref" : "CopyPeriod" },
  "filePath" : "s3://amzn-s3-demo-bucket/InputData/#{@scheduledStartTime.format('YYYY-MM-dd-hh:mm')}.csv",
  "precondition" : { "ref" : "Ready" }
},
{
  "id" : "Ready",
  "type" : "Exists"
}
```

## Sintaksis
<a name="exists-syntax"></a>


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| preconditionTimeout | Periode dari awal setelah prasyarat ditandai sebagai gagal jika masih belum terpenuhi | Periode | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| simpul | Simpul yang prasyarat ini sedang dilakukan. | Objek Referensi, misalnya “node”: \$1"ref”:” myRunnableObject Id "\$1 | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan akhir waktu untuk objek. | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

## Lihat Juga
<a name="exists-seealso"></a>
+ [ShellCommandPrecondition](dp-object-shellcommandprecondition.md)

# S3 KeyExists
<a name="dp-object-S3KeyExists"></a>

 Memeriksa apakah kunci ada di simpul data Amazon S3.

## Contoh
<a name="dp-object-S3KeyExists-example"></a>

Berikut adalah contoh dari jenis objek ini. Prasyarat akan memicu ketika kunci, `s3://amzn-s3-demo-bucket/mykey`, direferensikan oleh parameter `s3Key`, ada. 

```
{
"id" : "InputReady",
"type" : "S3KeyExists",
"role" : "test-role",
"s3Key" : "s3://amzn-s3-demo-bucket/mykey"
}
```

Anda juga dapat menggunakan `S3KeyExists` sebagai prasyarat pada alur kedua yang menunggu alur pertama selesai. Untuk melakukannya:

1. Tulis file ke Amazon S3 pada akhir penyelesaian alur pertama ini.

1. Buat prasyarat `S3KeyExists` pada alur kedua.

## Sintaksis
<a name="S3KeyExists-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| peran | Menentukan peran yang akan digunakan untuk mengeksekusi prasyarat tersebut. | String | 
| s3Key | Kunci Amazon S3. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout sebelum mencoba menyelesaikan pekerjaan jarak jauh sekali lagi. Jika disetel, maka aktivitas jarak jauh yang tidak lengkap dalam waktu mulai yang ditetapkan mungkin dicoba lagi. | Periode | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali. | Pencacahan | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maximumRetries | Jumlah maksimum upaya yang dimulai pada kegagalan. | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| preconditionTimeout | Periode dari awal setelah prasyarat ditandai sebagai gagal jika masih belum terpenuhi. | Periode | 
| reportProgressTimeout | Timeout untuk panggilan berurutan kerja jarak jauh ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya berturut-turut. | Periode | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| currentRetryCount | Berapa kali prasyarat dicoba dalam upaya ini. | String | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| lastRetryTime | Terakhir kali ketika prasyarat dicoba dalam upaya ini. | String | 
| simpul | Simpul yang prasyarat ini sedang dilakukan | Objek Referensi, misalnya “node”: \$1"ref”:” myRunnableObject Id "\$1 | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk objek | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

## Lihat Juga
<a name="S3KeyExists-seealso"></a>
+ [ShellCommandPrecondition](dp-object-shellcommandprecondition.md)

# S3 PrefixNotEmpty
<a name="dp-object-s3prefixnotempty"></a>

Prasyarat untuk memeriksa bahwa objek Amazon S3 dengan prefiks yang diberikan (direpresentasikan sebagai URI) ada.

## Contoh
<a name="s3prefixnotempty-example"></a>

Berikut ini adalah contoh dari jenis objek ini menggunakan bidang yang diperlukan, opsional, dan ekspresi.

```
{
  "id" : "InputReady",
  "type" : "S3PrefixNotEmpty",
  "role" : "test-role",
  "s3Prefix" : "#{node.filePath}"
}
```

## Sintaksis
<a name="s3prefixnotempty-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| peran | Menentukan peran yang akan digunakan untuk mengeksekusi prasyarat tersebut. | String | 
| s3Prefix | Prefiks Amazon S3 untuk memeriksa keberadaan objek. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| preconditionTimeout | Periode dari awal setelah prasyarat ditandai sebagai gagal jika masih belum terpenuhi | Periode | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| currentRetryCount | Berapa kali prasyarat dicoba dalam upaya ini. | String | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| lastRetryTime | Terakhir kali ketika prasyarat dicoba dalam upaya ini. | String | 
| simpul | Simpul yang prasyarat ini sedang dilakukan. | Objek Referensi, misalnya “node”: \$1"ref”:” myRunnableObject Id "\$1 | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan akhir waktu untuk objek. | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek. | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

## Lihat Juga
<a name="s3prefixnotempty-seealso"></a>
+ [ShellCommandPrecondition](dp-object-shellcommandprecondition.md)

# ShellCommandPrecondition
<a name="dp-object-shellcommandprecondition"></a>

 Perintah Unix/Linux shell yang dapat dijalankan sebagai prasyarat. 

## Contoh
<a name="shellcommandprecondition-example"></a>

Berikut adalah contoh dari jenis objek ini.

```
{
  "id" : "VerifyDataReadiness",
  "type" : "ShellCommandPrecondition",
  "command" : "perl check-data-ready.pl"
}
```

## Sintaksis
<a name="shellcommandprecondition-syntax"></a>


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| perintah | Perintah yang akan dijalankan. Nilai ini dan setiap parameter terkait harus berfungsi di lingkungan dari mana Anda menjalankan Task Runner. | String | 
| scriptUri | Sebuah jalur Amazon S3 URI untuk file untuk mengunduh dan menjalankan sebagai perintah shell. Hanya satu scriptURI atau bidang perintah yang harus ada. scriptURI tidak dapat menggunakan parameter, menggunakan perintah sebagai gantinya. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| attemptStatus | Baru-baru ini melaporkan status dari aktivitas jarak jauh. | String | 
| attemptTimeout | Timeout untuk penyelesaian pekerjaan jarak jauh. Jika disetel maka aktivitas jarak jauh yang tidak selesai dalam waktu mulai yang ditetapkan dapat dicoba lagi. | Periode | 
| failureAndRerunModus | Menjelaskan perilaku simpul konsumen ketika dependensi gagal atau menjalankan kembali | Pencacahan | 
| lateAfterTimeout | Waktu berlalu setelah alur mulai di mana objek harus menyelesaikan. Hal ini dipicu hanya ketika jenis jadwal tidak disetel ke ondemand. | Periode | 
| maximumRetries | Jumlah maksimum percobaan ulang pada pelanggaran | Bilangan Bulat | 
| onFail | Tindakan untuk dijalankan ketika objek saat ini gagal. | Objek Referensi, misalnya “onFail”: \$1"ref”:” “\$1 myActionId | 
| onLateAction | Tindakan yang harus dipicu jika objek belum dijadwalkan atau masih belum selesai. | Objek Referensi, misalnya "onLateAction“: \$1" ref”:” myActionId “\$1 | 
| onSuccess | Tindakan untuk dijalankan ketika objek saat ini berhasil. | Objek Referensi, misalnya “onSuccess”: \$1"ref”:” “\$1 myActionId | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| preconditionTimeout | Periode dari awal setelah prasyarat ditandai sebagai gagal jika masih belum terpenuhi | Periode | 
| reportProgressTimeout | Timeout untuk panggilan kerja jarak jauh berturut-turut ke reportProgress. Jika disetel, maka kegiatan jarak jauh yang tidak melaporkan kemajuan untuk jangka waktu tertentu dapat dianggap terhenti dan jadi dicoba lagi. | Periode | 
| retryDelay | Durasi timeout antara dua upaya coba lagi. | Periode | 
| scriptArgument | Argumen yang akan diteruskan ke script shell | String | 
| stderr | Jalur Amazon S3 yang menerima olahpesan kesalahan sistem dialihkan dari perintah. Jika Anda menggunakan bidang runsOn, ini harus menjadi jalur Amazon S3 karena sifat sementara dari sumber daya yang menjalankan aktivitas Anda. Namun, jika Anda menentukan bidang workerGroup, jalur file lokal diizinkan. | String | 
| stdout | Jalur Amazon S3 yang menerima output yang dialihkan dari perintah. Jika Anda menggunakan bidang runsOn, ini harus menjadi jalur Amazon S3 karena sifat sementara dari sumber daya yang menjalankan aktivitas Anda. Namun, jika Anda menentukan bidang workerGroup, jalur file lokal diizinkan. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @activeInstances | Daftar objek instans aktif terjadwal saat ini. | Objek Referensi, misalnya “ActiveInstances”: \$1"ref”:” Id "\$1 myRunnableObject | 
| @actualEndTime | Waktu ketika eksekusi objek ini selesai. | DateTime | 
| @actualStartTime | Waktu ketika eksekusi objek ini dimulai. | DateTime | 
| cancellationReason | cancellationReason jika objek ini dibatalkan. | String | 
| @cascadeFailedOn | Deskripsi rantai dependensi tempat objek gagal. | Objek Referensi, misalnya "cascadeFailedOn“: \$1" ref”:” myRunnableObject Id "\$1 | 
| emrStepLog | Log langkah EMR hanya tersedia pada upaya aktivitas EMR | String | 
| errorId | errorId jika objek ini gagal. | String | 
| errorMessage | errorMessage jika objek ini gagal. | String | 
| errorStackTrace | Jejak tumpukan kesalahan jika objek ini gagal. | String | 
| hadoopJobLog | log tugas Hadoop tersedia pada upaya untuk kegiatan berbasis EMR. | String | 
| hostname | Nama host klien yang mengambil upaya tugas. | String | 
| simpul | Simpul yang prasyarat ini sedang dilakukan | Objek Referensi, misalnya “node”: \$1"ref”:” myRunnableObject Id "\$1 | 
| reportProgressTime | Waktu terbaru bahwa aktivitas jarak jauh melaporkan kemajuan. | DateTime | 
| @scheduledEndTime | Jadwalkan waktu akhir untuk objek | DateTime | 
| @scheduledStartTime | Jadwalkan waktu mulai untuk objek | DateTime | 
| @status | Status objek ini. | String | 
| @version | Versi alur objek dibuat dengan. | String | 
| @waitingOn | Deskripsi daftar dependensi objek ini sedang menunggu. | Objek Referensi, misalnya “WaitingOn”: \$1"ref”:” Id "\$1 myRunnableObject | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

## Lihat Juga
<a name="shellcommandprecondition-seealso"></a>
+ [ShellCommandActivity](dp-object-shellcommandactivity.md)
+ [Exists](dp-object-exists.md)

# Basis Data
<a name="dp-object-databases"></a>

Berikut ini adalah objek AWS Data Pipeline database:

**Topics**
+ [JdbcDatabase](dp-object-jdbcdatabase.md)
+ [RdsDatabase](dp-object-rdsdatabase.md)
+ [RedshiftDatabase](dp-object-redshiftdatabase.md)

# JdbcDatabase
<a name="dp-object-jdbcdatabase"></a>

Mendefinisikan basis data JDBC.

## Contoh
<a name="jdbcdatabase-example"></a>

Berikut adalah contoh dari jenis objek ini.

```
{
  "id" : "MyJdbcDatabase",
  "type" : "JdbcDatabase",
  "connectionString" : "jdbc:redshift://hostname:portnumber/dbname",
  "jdbcDriverClass" : "com.amazon.redshift.jdbc41.Driver",
  "jdbcDriverJarUri" : "s3://redshift-downloads/drivers/RedshiftJDBC41-1.1.6.1006.jar",
  "username" : "user_name",
  "*password" : "my_password"
}
```

## Sintaksis
<a name="jdbcdatabase-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| connectionString | rangkaian koneksi JDBC untuk mengakses basis data. | String | 
| jdbcDriverClass | Kelas driver untuk memuat sebelum membangun koneksi JDBC. | String | 
| \$1kata sandi | Kata sandi untuk memasok. | String | 
| nama pengguna | Nama pengguna untuk memasok saat connect ke basis data. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| databaseName | Nama basis data logis untuk dilampirkan | String | 
| jdbcDriverJarUri | Lokasi di Amazon S3 dari file JAR driver JDBC yang digunakan untuk connect ke basis data. AWS Data Pipeline harus memiliki izin untuk baca file JAR ini. | String | 
| jdbcProperties | Pasangan dari bentuk A=B yang akan ditetapkan sebagai properti pada koneksi JDBC untuk basis data ini. | String | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur tempat objek dibuat. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

# RdsDatabase
<a name="dp-object-rdsdatabase"></a>

Mendefinisikan basis data Amazon RDS.

**catatan**  
RdsDatabase tidak mendukung Aurora. Gunakan [JdbcDatabase](dp-object-jdbcdatabase.md) untuk Aurora, sebagai gantinya.

## Contoh
<a name="rdsdatabase-example"></a>

Berikut adalah contoh dari jenis objek ini.

```
{
  "id" : "MyRdsDatabase",
  "type" : "RdsDatabase",
  "region" : "us-east-1",
  "username" : "user_name",
  "*password" : "my_password",
  "rdsInstanceId" : "my_db_instance_identifier"
}
```

Untuk mesin Oracle, bidang `jdbcDriverJarUri` diperlukan dan Anda dapat menentukan driver berikut: `http://www.oracle.com/technetwork/database/features/jdbc/jdbc-drivers-12c-download-1958347.html`. Untuk mesin SQL Server, bidang `jdbcDriverJarUri` diperlukan dan Anda dapat menentukan driver berikut: `https://www.microsoft.com/en-us/download/details.aspx?displaylang=en&id=11774`. Untuk mesin MySQL dan PostgreSQL, bidang `jdbcDriverJarUri` bersifat opsional.

## Sintaksis
<a name="rdsdatabase-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| \$1kata sandi | Kata sandi untuk memasok. | String | 
| rdsInstanceId | Properti DBInstanceIdentifier dari instans DB. | String | 
| nama pengguna | Nama pengguna untuk memasok saat connect ke basis data. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| databaseName | Nama basis data logis untuk dilampirkan | String | 
| jdbcDriverJarUri | Lokasi di Amazon S3 dari file JAR driver JDBC yang digunakan untuk connect ke basis data. AWS Data Pipeline harus memiliki izin untuk baca file JAR ini. Untuk mesin MySQL dan PostgreSQL, driver default digunakan jika bidang ini tidak ditentukan, tetapi Anda dapat mengganti default menggunakan bidang ini. Untuk mesin Oracle dan SQL Server, bidang ini diperlukan. | String | 
| jdbcProperties | Pasangan dari bentuk A=B yang akan ditetapkan sebagai properti pada koneksi JDBC untuk basis data ini. | String | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya, “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| region | Kode untuk wilayah di mana basis data ada. Misalnya, us-east-1. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur tempat objek dibuat. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

# RedshiftDatabase
<a name="dp-object-redshiftdatabase"></a>

Mendefinisikan basis data menggunakan Amazon Redshift. `RedshiftDatabase`mewakili properti basis data yang digunakan oleh alur Anda.

## Contoh
<a name="redshiftdatabase-example"></a>

Berikut adalah contoh dari jenis objek ini.

```
{
  "id" : "MyRedshiftDatabase",
  "type" : "RedshiftDatabase",
  "clusterId" : "myRedshiftClusterId",
  "username" : "user_name",
  "*password" : "my_password",
  "databaseName" : "database_name"
}
```

Secara default, objek menggunakan driver Postgres, yang memerlukan bidang `clusterId`. Untuk menggunakan driver Amazon Redshift, tentukan rangkaian koneksi basis data Amazon Redshif dari konsol Amazon Redshift (dimulai dengan "jdbc:redshift:") di bidang `connectionString` sebagai gantinya.

## Sintaksis
<a name="redshiftdatabase-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| \$1kata sandi | Kata sandi untuk memasok. | String | 
| nama pengguna | Nama pengguna untuk memasok saat connect ke basis data. | String | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| clusterId | Pengenal yang disediakan oleh pengguna ketika klaster Amazon Redshift dibuat. Misalnya, jika titik akhir untuk klaster Amazon Redshift Anda adalah mydb.example.us-east-1.redshift.amazonaws.com, pengenal yang benar adalah mydb. Dalam konsol Amazon Redshift, Anda bisa mendapatkan nilai ini dari Pengenal Klaster atau Nama Klaster. | String | 
| connectionString | Titik akhir JDBC untuk connect ke instans Amazon Redshift yang dimiliki oleh akun yang berbeda dari alur. Anda tidak dapat menentukan connectionString dan clusterId sekaligus. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| databaseName | Nama basis data logis untuk dilampirkan. | String | 
| jdbcProperties | Pasangan dari bentuk A=B akan ditetapkan sebagai properti pada koneksi JDBC untuk basis data ini. | String | 
| induk | Induk dari objek saat ini dari mana slot diwariskan. | Objek Referensi, misalnya, “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| region | Kode untuk wilayah di mana basis data ada. Misalnya, us-east-1. | Pencacahan | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur tempat objek dibuat. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

# Format Data
<a name="dp-object-dataformats"></a>

Berikut ini adalah objek format AWS Data Pipeline data:

**Topics**
+ [Format Data CSV](dp-object-csv.md)
+ [Format Data Kustom](dp-object-custom.md)
+ [Format Dinamo DBData](dp-object-dynamodbdataformat.md)
+ [Dinamo DBExport DataFormat](dp-object-dynamodbexportdataformat.md)
+ [RegEx Format Data](dp-object-regex.md)
+ [Format Data TSV](dp-object-tsv.md)

# Format Data CSV
<a name="dp-object-csv"></a>

Format data yang dibatasi koma di mana pemisah kolom adalah koma dan pemisah catatan adalah karakter baris baru.

## Contoh
<a name="csv-example"></a>

Berikut adalah contoh dari jenis objek ini. 

```
{
  "id" : "MyOutputDataType",
  "type" : "CSV",
  "column" : [
    "Name STRING",
    "Score INT",
    "DateOfBirth TIMESTAMP"
  ]
}
```

## Sintaksis
<a name="csv-syntax"></a>


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| kolom | Nama kolom dengan jenis data yang ditentukan oleh masing-masing bidang untuk data yang dijelaskan oleh simpul data ini. Contoh: hostname STRING Untuk beberapa nilai, menggunakan nama kolom dan tipe data yang dipisahkan oleh spasi. | String | 
| escapeChar | Sebuah karakter, misalnya "\$1", yang menginstruksikan parser untuk mengabaikan karakter berikutnya. | String | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur objek dibuat dengan. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

# Format Data Kustom
<a name="dp-object-custom"></a>

Format data kustom yang didefinisikan oleh kombinasi pemisah kolom tertentu, pemisah catatan, dan karakter escape.

## Contoh
<a name="custom-example"></a>

Berikut adalah contoh dari jenis objek ini. 

```
{
  "id" : "MyOutputDataType",
  "type" : "Custom",
  "columnSeparator" : ",",
  "recordSeparator" : "\n",
  "column" : [
    "Name STRING",
    "Score INT",
    "DateOfBirth TIMESTAMP"
  ]
}
```

## Sintaksis
<a name="custom-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| columnSeparator | Sebuah karakter yang menunjukkan akhir kolom dalam file data. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| kolom | Nama kolom dengan jenis data yang ditentukan oleh masing-masing bidang untuk data yang dijelaskan oleh simpul data ini. Contoh: hostname STRING Untuk beberapa nilai, menggunakan nama kolom dan tipe data yang dipisahkan oleh spasi. | String | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| recordSeparator | Karakter yang menunjukkan akhir baris dalam file data, misalnya "\$1n". Hanya karakter tunggal yang disupport. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur objek dibuat dengan. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

# Format Dinamo DBData
<a name="dp-object-dynamodbdataformat"></a>

Berlaku skema untuk tabel DynamoDB untuk membuatnya dapat diakses oleh kueri Hive. `DynamoDBDataFormat` digunakan dengan objek `HiveActivity` dan input dan output `DynamoDBDataNode`. `DynamoDBDataFormat` mengharuskan Anda menentukan semua kolom dalam kueri Hive Anda. Untuk lebih banyak fleksibilitas untuk menentukan kolom tertentu dalam kueri Hive atau support Amazon S3, lihat [Dinamo DBExport DataFormat](dp-object-dynamodbexportdataformat.md).

**catatan**  
Jenis DynamoDB Boolean tidak dipetakan ke jenis Hive Boolean. Namun, adalah mungkin untuk memetakan nilai integer DynamoDB 0 atau 1 untuk jenis Hive Boolean.

## Contoh
<a name="dynamodbdataformat-example"></a>

Contoh berikut menunjukkan cara menggunakan `DynamoDBDataFormat` untuk menetapkan skema untuk input `DynamoDBDataNode`, yang mengizinkan objek `HiveActivity` untuk mengakses data dengan kolom bernama dan menyalin data ke output `DynamoDBDataNode`. 

```
{
  "objects": [
    {
      "id" : "Exists.1",
      "name" : "Exists.1",
      "type" : "Exists"
    },
    {
      "id" : "DataFormat.1",
      "name" : "DataFormat.1",
      "type" : "DynamoDBDataFormat",
      "column" : [ 
         "hash STRING", 
        "range STRING" 
      ]
    },
    {
      "id" : "DynamoDBDataNode.1",
      "name" : "DynamoDBDataNode.1",
      "type" : "DynamoDBDataNode",
      "tableName" : "$INPUT_TABLE_NAME",
      "schedule" : { "ref" : "ResourcePeriod" },
      "dataFormat" : { "ref" : "DataFormat.1" }
    },
    {
      "id" : "DynamoDBDataNode.2",
      "name" : "DynamoDBDataNode.2",
      "type" : "DynamoDBDataNode",
      "tableName" : "$OUTPUT_TABLE_NAME",
      "schedule" : { "ref" : "ResourcePeriod" },
      "dataFormat" : { "ref" : "DataFormat.1" }
    },
    {
      "id" : "EmrCluster.1",
      "name" : "EmrCluster.1",
      "type" : "EmrCluster",
      "schedule" : { "ref" : "ResourcePeriod" },
      "masterInstanceType" : "m1.small",
      "keyPair" : "$KEYPAIR"
    },
    {
      "id" : "HiveActivity.1",
      "name" : "HiveActivity.1",
      "type" : "HiveActivity",
      "input" : { "ref" : "DynamoDBDataNode.1" },
      "output" : { "ref" : "DynamoDBDataNode.2" },
      "schedule" : { "ref" : "ResourcePeriod" },
      "runsOn" : { "ref" : "EmrCluster.1" },
      "hiveScript" : "insert overwrite table ${output1} select * from ${input1} ;"
    },
    {
      "id" : "ResourcePeriod",
      "name" : "ResourcePeriod",
      "type" : "Schedule",
      "period" : "1 day",
      "startDateTime" : "2012-05-04T00:00:00",
      "endDateTime" : "2012-05-05T00:00:00"
    }
  ]
}
```

## Sintaksis
<a name="dynamodbdataformat-syntax"></a>


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| kolom | Nama kolom dengan jenis data yang ditentukan oleh masing-masing bidang untuk data yang dijelaskan oleh simpul data ini. Misalnya, hostname STRING. Untuk beberapa nilai, gunakan nama kolom dan tipe data yang dipisahkan oleh spasi. | String | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, seperti “parent”: \$1"ref”:” myBaseObject Id "\$1 | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur digunakan untuk membuat objek. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Kesalahan yang menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

# Dinamo DBExport DataFormat
<a name="dp-object-dynamodbexportdataformat"></a>

Berlaku skema untuk tabel DynamoDB untuk membuatnya dapat diakses oleh kueri Hive. Gunakan `DynamoDBExportDataFormat` dengan objek `HiveCopyActivity` dan `DynamoDBDataNode` atau `S3DataNode` input dan output. `DynamoDBExportDataFormat` memiliki manfaat berikut: 
+ Memberikan support DynamoDB dan Amazon S3
+ Mengizinkan Anda untuk mem-filter data dengan kolom tertentu dalam kueri Hive Anda
+ Ekspor semua atribut dari DynamoDB bahkan jika Anda memiliki skema tersebar

**catatan**  
Jenis DynamoDB Boolean tidak dipetakan ke jenis Hive Boolean. Namun, adalah mungkin untuk memetakan nilai integer DynamoDB 0 atau 1 untuk jenis Hive Boolean.

## Contoh
<a name="dynamodbexportdataformat-example"></a>

Contoh berikut menunjukkan cara menggunakan `HiveCopyActivity` dan `DynamoDBExportDataFormat` untuk menyalin data dari satu `DynamoDBDataNode` ke yang lain, sambil mem-filter berdasarkan stempel waktu.

```
{
  "objects": [
    {
      "id" : "DataFormat.1",
      "name" : "DataFormat.1",
      "type" : "DynamoDBExportDataFormat",
      "column" : "timeStamp BIGINT"
    },
    {
      "id" : "DataFormat.2",
      "name" : "DataFormat.2",
      "type" : "DynamoDBExportDataFormat"
    },
    {
      "id" : "DynamoDBDataNode.1",
      "name" : "DynamoDBDataNode.1",
      "type" : "DynamoDBDataNode",
      "tableName" : "item_mapped_table_restore_temp",
      "schedule" : { "ref" : "ResourcePeriod" },
      "dataFormat" : { "ref" : "DataFormat.1" }
    },
    {
      "id" : "DynamoDBDataNode.2",
      "name" : "DynamoDBDataNode.2",
      "type" : "DynamoDBDataNode",
      "tableName" : "restore_table",
      "region" : "us_west_1",
      "schedule" : { "ref" : "ResourcePeriod" },
      "dataFormat" : { "ref" : "DataFormat.2" }
    },
    {
      "id" : "EmrCluster.1",
      "name" : "EmrCluster.1",
      "type" : "EmrCluster",
      "schedule" : { "ref" : "ResourcePeriod" },
      "masterInstanceType" : "m1.xlarge",
      "coreInstanceCount" : "4"
    },
    {
      "id" : "HiveTransform.1",
      "name" : "Hive Copy Transform.1",
      "type" : "HiveCopyActivity",
      "input" : { "ref" : "DynamoDBDataNode.1" },
      "output" : { "ref" : "DynamoDBDataNode.2" },
      "schedule" : { "ref" : "ResourcePeriod" },
      "runsOn" : { "ref" : "EmrCluster.1" },
      "filterSql" : "`timeStamp` > unix_timestamp(\"#{@scheduledStartTime}\", \"yyyy-MM-dd'T'HH:mm:ss\")"
    },
    {
      "id" : "ResourcePeriod",
      "name" : "ResourcePeriod",
      "type" : "Schedule",
      "period" : "1 Hour",
      "startDateTime" : "2013-06-04T00:00:00",
      "endDateTime" : "2013-06-04T01:00:00"
    }
  ]
}
```

## Sintaksis
<a name="dynamodbexportdataformat-syntax"></a>


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| kolom | Nama kolom dengan jenis data yang ditentukan oleh masing-masing bidang untuk data yang dijelaskan oleh simpul data ini. Contoh: nama host STRING | String | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur objek dibuat dengan. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

# RegEx Format Data
<a name="dp-object-regex"></a>

Format data kustom yang didefinisikan oleh ekspresi reguler.

## Contoh
<a name="regex-example"></a>

Berikut adalah contoh dari jenis objek ini. 

```
{
  "id" : "MyInputDataType",
  "type" : "RegEx",
  "inputRegEx" : "([^ ]*) ([^ ]*) ([^ ]*) (-|\\[[^\\]]*\\]) ([^ \"]*|\"[^\"]*\") (-|[0-9]*) (-|[0-9]*)(?: ([^ \"]*|\"[^\"]*\") ([^ \"]*|\"[^\"]*\"))?",
  "outputFormat" : "%1$s %2$s %3$s %4$s %5$s %6$s %7$s %8$s %9$s",
  "column" : [
    "host STRING",
    "identity STRING",
    "user STRING",
    "time STRING",
    "request STRING",
    "status STRING",
    "size STRING",
    "referer STRING",
    "agent STRING"
  ]
}
```

## Sintaksis
<a name="regex-syntax"></a>


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| kolom | Nama kolom dengan jenis data yang ditentukan oleh masing-masing bidang untuk data yang dijelaskan oleh simpul data ini. Contoh: hostname STRING Untuk beberapa nilai, menggunakan nama kolom dan tipe data yang dipisahkan oleh spasi. | String | 
| inputRegEx | Ekspresi reguler untuk mengurai file input S3. inputRegEx menyediakan cara untuk mengambil kolom dari data yang relatif tidak terstruktur dalam file. | String | 
| outputFormat | Kolom kolom diambil oleh inputRegEx, tetapi direferensikan sebagai %1\$1s %2\$1s menggunakan sintaks pemformat Java. | String | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur objek dibuat dengan. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

# Format Data TSV
<a name="dp-object-tsv"></a>

Format data yang dibatasi koma di mana pemisah kolom adalah karakter tab dan pemisah catatan adalah karakter baris baru.

## Contoh
<a name="tsv-example"></a>

Berikut adalah contoh dari jenis objek ini. 

```
{
  "id" : "MyOutputDataType",
  "type" : "TSV",
  "column" : [
    "Name STRING",
    "Score INT",
    "DateOfBirth TIMESTAMP"
  ]
}
```

## Sintaksis
<a name="tsv-syntax"></a>


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| kolom | Nama kolom dan tipe data untuk data yang dijelaskan oleh simpul data ini. Misalnya "Name STRING" menunjukkan sebuah kolom bernama Name dengan bidang tipe data STRING. Pisahkan beberapa nama kolom dan tipe data pasangan dengan koma (seperti yang ditunjukkan pada contoh). | String | 
| columnSeparator | Karakter yang memisahkan bidang dalam satu kolom dari bidang di kolom berikutnya. Secara default ke '\$1t'. | String | 
| escapeChar | Sebuah karakter, misalnya "\$1", yang menginstruksikan parser untuk mengabaikan karakter berikutnya. | String | 
| induk | Induk dari objek saat ini dari mana slot diwariskan. | Objek Referensi, misalnya, “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| recordSeparator | Karakter yang memisahkan catatan. Secara default ke '\$1n'. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur tempat objek dibuat. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects, yang mengeksekusi Attempt Objects. | String | 

# Tindakan
<a name="dp-object-actions"></a>

Berikut ini adalah objek AWS Data Pipeline tindakan:

**Topics**
+ [SnsAlarm](dp-object-snsalarm.md)
+ [Mengakhiri](dp-object-terminate.md)

# SnsAlarm
<a name="dp-object-snsalarm"></a>

 Mengirim olahpesan notifikasi Amazon SNS ketika aktivitas gagal atau selesai dengan sukses. 

## Contoh
<a name="snsalarm-example"></a>

Berikut adalah contoh dari jenis objek ini. Nilai untuk `node.input` dan `node.output` berasal dari simpul data atau aktivitas yang mereferensikan objek ini dalam bidang `onSuccess`. 

```
{
  "id" : "SuccessNotify",
  "name" : "SuccessNotify",
  "type" : "SnsAlarm",
  "topicArn" : "arn:aws:sns:us-east-1:28619EXAMPLE:ExampleTopic",
  "subject" : "COPY SUCCESS: #{node.@scheduledStartTime}",
  "message" : "Files were copied from #{node.input} to #{node.output}."
}
```

## Sintaksis
<a name="snsalarm-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| pesan | Teks badan notifikasi Amazon SNS. | String | 
| peran | IAM role untuk digunakan untuk membuat alarm Amazon SNS. | String | 
| subjek | Baris subjek olahpesan notifikasi Amazon SNS. | String | 
| topicArn | Tujuan Amazon SNS topik ARN untuk olahpesan. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| simpul | Simpul untuk tempat tindakan ini sedang dilakukan. | Objek Referensi, misalnya “node”: \$1"ref”:” myRunnableObject Id "\$1 | 
| @version | Versi alur objek dibuat dengan. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | Id dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects. | String | 

# Mengakhiri
<a name="dp-object-terminate"></a>

Tindakan untuk memicu pembatalan aktivitas, sumber daya, atau node data yang tertunda atau belum selesai. AWS Data Pipeline mencoba untuk menempatkan aktivitas, sumber daya, atau node data ke dalam status CANCELLED jika tidak dimulai dengan `lateAfterTimeout` nilai. 

Anda tidak dapat mengakhiri tindakan yang menyertakan sumber daya `onSuccess`, `OnFail`, atau `onLateAction`.

## Contoh
<a name="terminate-example"></a>

Berikut adalah contoh dari jenis objek ini. Dalam contoh ini, bidang `onLateAction` dari `MyActivity` berisi referensi untuk tindakan `DefaultAction1`. Saat Anda memberikan tindakan untuk `onLateAction`, Anda juga harus menyediakan nilai `lateAfterTimeout` untuk menunjukkan periode waktu sejak awal dijadwalkan dari alur setelah aktivitas dianggap terlambat.

```
{
  "name" : "MyActivity",
  "id" : "DefaultActivity1",
  "schedule" : {
    "ref" : "MySchedule"
  },
  "runsOn" : {
    "ref" : "MyEmrCluster"
  },
  "lateAfterTimeout" : "1 Hours",
  "type" : "EmrActivity",
  "onLateAction" : {
    "ref" : "DefaultAction1"
  },
  "step" : [
    "s3://amzn-s3-demo-bucket/myPath/myStep.jar,firstArg,secondArg",
    "s3://amzn-s3-demo-bucket/myPath/myOtherStep.jar,anotherArg"
  ]
},
{
  "name" : "TerminateTasks",
  "id" : "DefaultAction1",
  "type" : "Terminate"
}
```

## Sintaksis
<a name="terminate-syntax"></a>


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| induk | Induk dari objek saat ini dari mana slot diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| simpul | Simpul untuk tempat tindakan ini sedang dilakukan. | Objek Referensi, misalnya “node”: \$1"ref”:” myRunnableObject Id "\$1 | 
| @version | Versi alur tempat objek dibuat. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects, yang mengeksekusi Attempt Objects. | String | 

# Jadwal
<a name="dp-object-schedule"></a>

Mendefinisikan waktu acara terjadwal, seperti ketika suatu aktivitas berjalan.

**catatan**  
Ketika waktu mulai jadwal sudah berlalu, AWS Data Pipeline isi ulang pipeline Anda dan mulai penjadwalan berjalan segera dimulai pada waktu mulai yang ditentukan. Untuk pengujian/pengembangan, gunakan interval yang relatif singkat. Jika tidak, AWS Data Pipeline cobalah untuk mengantri dan menjadwalkan semua proses pipeline Anda untuk interval itu. AWS Data Pipeline upaya untuk mencegah pengisian ulang yang tidak disengaja jika komponen `scheduledStartTime` pipa lebih awal dari 1 hari yang lalu dengan memblokir aktivasi pipa.

## Contoh
<a name="schedule-example"></a>

Berikut adalah contoh dari jenis objek ini. Ini mendefinisikan jadwal setiap jam mulai pukul 00:00:00 pada 2012-09-01 dan berakhir pada jam 00:00:00 pada 2012-10-01. Periode pertama berakhir pada pukul 01:00:00 pada 2012-09-01.

```
{
  "id" : "Hourly",
  "type" : "Schedule",
  "period" : "1 hours",
  "startDateTime" : "2012-09-01T00:00:00",
  "endDateTime" : "2012-10-01T00:00:00"
}
```

Alur berikut akan dimulai pada `FIRST_ACTIVATION_DATE_TIME` dan berjalan setiap jam sehingga jam 22:00:00 pada 2014-04-25.

```
{
     "id": "SchedulePeriod",
     "name": "SchedulePeriod",
     "startAt": "FIRST_ACTIVATION_DATE_TIME",
     "period": "1 hours",
     "type": "Schedule",
     "endDateTime": "2014-04-25T22:00:00"
   }
```

Alur berikut akan dimulai pada `FIRST_ACTIVATION_DATE_TIME` dan berjalan setiap jam dan selesai setelah tiga kejadian.

```
{
     "id": "SchedulePeriod",
     "name": "SchedulePeriod",
     "startAt": "FIRST_ACTIVATION_DATE_TIME",
     "period": "1 hours",
     "type": "Schedule",
     "occurrences": "3"
   }
```

Alur berikut akan dimulai pukul 22:00:00 pada 2014-04-25, berjalan per jam, dan berakhir setelah tiga kejadian.

```
{
     "id": "SchedulePeriod",
     "name": "SchedulePeriod",
     "startDateTime": "2014-04-25T22:00:00",
     "period": "1 hours",
     "type": "Schedule",
     "occurrences": "3"
   }
```

Sesuai permintaan menggunakan objek Default

```
{
  "name": "Default",
  "resourceRole": "DataPipelineDefaultResourceRole",
  "role": "DataPipelineDefaultRole",
  "scheduleType": "ondemand"
}
```

Sesuai permintaan dengan objek Jadwal eksplisit

```
{
  "name": "Default",
  "resourceRole": "DataPipelineDefaultResourceRole",
  "role": "DataPipelineDefaultRole",
  "scheduleType": "ondemand"
},
{
  "name": "DefaultSchedule",
  "type": "Schedule",
  "id": "DefaultSchedule",
  "period": "ONDEMAND_PERIOD",
  "startAt": "ONDEMAND_ACTIVATION_TIME"
},
```

Contoh berikut menunjukkan bagaimana Jadwal dapat diwariskan dari objek default, secara eksplisit disetel untuk objek itu, atau diberikan oleh referensi induk:

Jadwal diwarisi dari objek Default

```
{
  "objects": [
  {       
      "id": "Default",
      "failureAndRerunMode":"cascade",
      "resourceRole": "DataPipelineDefaultResourceRole",
      "role": "DataPipelineDefaultRole",
      "pipelineLogUri": "s3://myLogsbucket",
      "scheduleType": "cron",
      "schedule": {
        "ref": "DefaultSchedule"
      }
   },
   {
      "type": "Schedule",
      "id": "DefaultSchedule",
      "occurrences": "1",
      "period": "1 Day",
      "startAt": "FIRST_ACTIVATION_DATE_TIME"
    },
    { 
      "id": "A_Fresh_NewEC2Instance",
      "type": "Ec2Resource",
      "terminateAfter": "1 Hour"
    },
    {
      "id": "ShellCommandActivity_HelloWorld",
      "runsOn": {
        "ref": "A_Fresh_NewEC2Instance"
      },
      "type": "ShellCommandActivity",
      "command": "echo 'Hello World!'"
    }
  ]
}
```

Jadwal eksplisit pada objek

```
{
  "objects": [
  {       
      "id": "Default",
      "failureAndRerunMode":"cascade",
      "resourceRole": "DataPipelineDefaultResourceRole",
      "role": "DataPipelineDefaultRole",
      "pipelineLogUri": "s3://myLogsbucket",
      "scheduleType": "cron"
      
   },
   {
      "type": "Schedule",
      "id": "DefaultSchedule",
      "occurrences": "1",
      "period": "1 Day",
      "startAt": "FIRST_ACTIVATION_DATE_TIME"
    },
    { 
      "id": "A_Fresh_NewEC2Instance",
      "type": "Ec2Resource",
      "terminateAfter": "1 Hour"
    },
    {
      "id": "ShellCommandActivity_HelloWorld",
      "runsOn": {
        "ref": "A_Fresh_NewEC2Instance"
      },
      "schedule": {
        "ref": "DefaultSchedule"
      },
      "type": "ShellCommandActivity",
      "command": "echo 'Hello World!'"
    }
  ]
}
```

Jadwal dari referensi Orang Tua

```
{
  "objects": [
  {       
      "id": "Default",
      "failureAndRerunMode":"cascade",
      "resourceRole": "DataPipelineDefaultResourceRole",
      "role": "DataPipelineDefaultRole",
      "pipelineLogUri": "s3://myLogsbucket",
      "scheduleType": "cron"
      
   },
   {       
      "id": "parent1",
      "schedule": {
        "ref": "DefaultSchedule"
      }
      
   },
   {
      "type": "Schedule",
      "id": "DefaultSchedule",
      "occurrences": "1",
      "period": "1 Day",
      "startAt": "FIRST_ACTIVATION_DATE_TIME"
    },
    { 
      "id": "A_Fresh_NewEC2Instance",
      "type": "Ec2Resource",
      "terminateAfter": "1 Hour"
    },
    {
      "id": "ShellCommandActivity_HelloWorld",
      "runsOn": {
        "ref": "A_Fresh_NewEC2Instance"
      },
      "parent": {
        "ref": "parent1"
      },
      "type": "ShellCommandActivity",
      "command": "echo 'Hello World!'"
    }
  ]
}
```

## Sintaksis
<a name="schedule-syntax"></a>


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| periode | Seberapa sering alur harus berjalan. Formatnya adalah "N [menit\$1jam\$1hari\$1minggu\$1bulan]", di mana N adalah nomor diikuti oleh salah satu penentu waktu. Misalnya, "15 menit", menjalankan alur setiap 15 menit. Periode minimum adalah 15 menit dan periode maksimum adalah 3 tahun. | Periode | 

 


****  

| Grup yang diperlukan (Salah satu dari berikut ini diperlukan) | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| startAt | Tanggal dan waktu untuk mulai alur terjadwal. Nilai yang valid adalah FIRST\$1ACTIVATION\$1DATE\$1TIME, yang tidak lagi digunakan untuk membuat alur sesuai permintaan. | Pencacahan | 
| startDateTime | Tanggal dan waktu untuk mulai proses terjadwal. Anda harus menggunakan salah satu startDateTime atau StartAt tetapi tidak keduanya. | DateTime | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| endDateTime | Tanggal dan waktu untuk mengakhiri proses terjadwal. Harus tanggal dan waktu lebih lambat dari nilai startDateTime atau startAt. Perilaku default adalah untuk menjadwalkan proses berjalan sampai alur dimatikan.  | DateTime | 
| kejadian | Berapa kali mengeksekusi alur setelah diaktifkan. Anda tidak dapat menggunakan kejadian dengan endDateTime. | Bilangan Bulat | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur objek dibuat dengan. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @firstActivationTime | Waktu pembuatan objek. | DateTime | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

# Utilitas
<a name="dp-object-utilities"></a>

Objek utilitas berikut mengonfigurasi objek alur lainnya:

**Topics**
+ [ShellScriptConfig](dp-object-shellscriptconfig.md)
+ [EmrConfiguration](dp-object-emrconfiguration.md)
+ [Properti](dp-object-property.md)

# ShellScriptConfig
<a name="dp-object-shellscriptconfig"></a>

Gunakan dengan Aktivitas untuk menjalankan skrip shell untuk preActivityTask Config dan Config postActivityTask. Objek ini tersedia untuk [HadoopActivity](dp-object-hadoopactivity.md), [HiveActivity](dp-object-hiveactivity.md), [HiveCopyActivity](dp-object-hivecopyactivity.md), dan [PigActivity](dp-object-pigactivity.md). Anda menentukan URI S3 dan daftar argumen untuk script.

## Contoh
<a name="shellscriptconfig-example"></a>

A ShellScriptConfig dengan argumen:

```
{
   "id" : "ShellScriptConfig_1”,
   "name" : “prescript”,
   "type" : "ShellScriptConfig",
   "scriptUri": “s3://my-bucket/shell-cleanup.sh”,
   "scriptArgument" : ["arg1","arg2"]
 }
```

## Sintaksis
<a name="shellscriptconfig-syntax"></a>

Objek ini mencakup bidang berikut.


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| induk | Induk dari objek saat ini dari mana slot diwariskan. | Objek Referensi, misalnya, “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| scriptArgument | Daftar argumen untuk digunakan dengan script shell. | String | 
| scriptUri | Script URI di Amazon S3 yang harus diunduh dan dijalankan. | String | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur tempat objek dibuat. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects, yang mengeksekusi Attempt Objects. | String | 

# EmrConfiguration
<a name="dp-object-emrconfiguration"></a>

 EmrConfiguration Objek adalah konfigurasi yang digunakan untuk cluster EMR dengan rilis 4.0.0 atau lebih besar. Konfigurasi (sebagai daftar) adalah parameter untuk panggilan RunJobFlow API. API konfigurasi untuk Amazon EMR mengambil klasifikasi dan properti. AWS Data Pipeline menggunakan EmrConfiguration dengan objek Properti yang sesuai untuk mengkonfigurasi [EmrCluster](dp-object-emrcluster.md) aplikasi seperti Hadoop, Hive, Spark, atau Pig pada cluster EMR diluncurkan dalam eksekusi pipeline. Karena konfigurasi hanya dapat diubah untuk cluster baru, Anda tidak dapat menyediakan EmrConfiguration objek untuk sumber daya yang ada. Untuk informasi selengkapnya, lihat [https://docs.aws.amazon.com/ElasticMapReduce/latest/ReleaseGuide/](https://docs.aws.amazon.com/ElasticMapReduce/latest/ReleaseGuide/).

## Contoh
<a name="emrconfiguration-example"></a>

Objek konfigurasi berikut menetapkan properti `io.file.buffer.size` dan `fs.s3.block.size` di `core-site.xml`:

```
[
   {  
      "classification":"core-site",
      "properties":
      {
         "io.file.buffer.size": "4096",
         "fs.s3.block.size": "67108864"
      }
   }
]
```

Definisi objek pipeline yang sesuai menggunakan EmrConfiguration objek dan daftar objek Properti di `property` bidang:

```
{
  "objects": [
    {
      "name": "ReleaseLabelCluster",
      "releaseLabel": "emr-4.1.0",
      "applications": ["spark", "hive", "pig"],
      "id": "ResourceId_I1mCc",
      "type": "EmrCluster",
      "configuration": {
        "ref": "coresite"
      }
    },
    {
      "name": "coresite",
      "id": "coresite",
      "type": "EmrConfiguration",
      "classification": "core-site",
      "property": [{
        "ref": "io-file-buffer-size"
      },
      {
        "ref": "fs-s3-block-size"
      }
      ]
    },
    {
      "name": "io-file-buffer-size",
      "id": "io-file-buffer-size",
      "type": "Property",
      "key": "io.file.buffer.size",
      "value": "4096"
    },
    {
      "name": "fs-s3-block-size",
      "id": "fs-s3-block-size",
      "type": "Property",
      "key": "fs.s3.block.size",
      "value": "67108864"
    }
  ]
}
```

Contoh berikut adalah konfigurasi bersarang yang digunakan untuk mengatur lingkungan Hadoop dengan klasifikasi `hadoop-env`:

```
[
  {
    "classification": "hadoop-env",
    "properties": {},
    "configurations": [
      {
        "classification": "export",
        "properties": {
          "YARN_PROXYSERVER_HEAPSIZE": "2396"
        }
      }
    ]
  }
]
```

Objek definisi alur yang sesuai yang menggunakan konfigurasi ini adalah di bawah ini:

```
{
  "objects": [
    {
      "name": "ReleaseLabelCluster",
      "releaseLabel": "emr-4.0.0",
      "applications": ["spark", "hive", "pig"],
      "id": "ResourceId_I1mCc",
      "type": "EmrCluster",
      "configuration": {
        "ref": "hadoop-env"
      }
    },
    {
      "name": "hadoop-env",
      "id": "hadoop-env",
      "type": "EmrConfiguration",
      "classification": "hadoop-env",
      "configuration": {
        "ref": "export"
      }
    },
    {
      "name": "export",
      "id": "export",
      "type": "EmrConfiguration",
      "classification": "export",
      "property": {
        "ref": "yarn-proxyserver-heapsize"
      }
    },
    {
      "name": "yarn-proxyserver-heapsize",
      "id": "yarn-proxyserver-heapsize",
      "type": "Property",
      "key": "YARN_PROXYSERVER_HEAPSIZE",
      "value": "2396"
    },
  ]
}
```

Contoh berikut memodifikasi properti khusus Hive untuk klaster EMR:

```
{
    "objects": [
        {
            "name": "hivesite",
            "id": "hivesite",
            "type": "EmrConfiguration",
            "classification": "hive-site",
            "property": [
                {
                    "ref": "hive-client-timeout"
                }
            ]
        },
        {
            "name": "hive-client-timeout",
            "id": "hive-client-timeout",
            "type": "Property",
            "key": "hive.metastore.client.socket.timeout",
            "value": "2400s"
        }
    ]
}
```

## Sintaksis
<a name="emrconfiguration-syntax"></a>

Objek ini mencakup bidang berikut.


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| klasifikasi | Klasifikasi untuk konfigurasi. | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| konfigurasi | Sub-konfigurasi untuk konfigurasi ini. | Objek Referensi, misalnya “konfigurasi”: \$1"ref”:” myEmrConfiguration Id "\$1 | 
| induk | Induk dari objek saat ini dari mana slot akan diwariskan. | Objek Referensi, misalnya “induk”: \$1"ref”:” myBaseObject Id "\$1 | 
| properti | Properti konfigurasi. | Objek Referensi, misalnya “properti”: \$1"ref”:” myPropertyId “\$1 | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur objek dibuat dengan. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat mendeskripsikan obyek yang tidak terbentuk | String | 
| @pipelineId | Id dari alur tempat objek ini berada | String | 
| @sphere | Lingkup dari sebuah objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects yang mengeksekusi Attempt Objects | String | 

## Lihat Juga
<a name="emrconfiguration-seealso"></a>
+ [EmrCluster](dp-object-emrcluster.md)
+ [Properti](dp-object-property.md)
+ [Panduan Rilis Amazon EMR](https://docs.aws.amazon.com/ElasticMapReduce/latest/ReleaseGuide/)

# Properti
<a name="dp-object-property"></a>

Sebuah properti kunci-nilai tunggal untuk digunakan dengan objek EmrConfiguration .

## Contoh
<a name="property-example"></a>

Definisi pipeline berikut menunjukkan EmrConfiguration objek dan objek Properti terkait untuk meluncurkan EmrCluster:

```
{
  "objects": [
    {
      "name": "ReleaseLabelCluster",
      "releaseLabel": "emr-4.1.0",
      "applications": ["spark", "hive", "pig"],
      "id": "ResourceId_I1mCc",
      "type": "EmrCluster",
      "configuration": {
        "ref": "coresite"
      }
    },
    {
      "name": "coresite",
      "id": "coresite",
      "type": "EmrConfiguration",
      "classification": "core-site",
      "property": [{
        "ref": "io-file-buffer-size"
      },
      {
        "ref": "fs-s3-block-size"
      }
      ]
    },
    {
      "name": "io-file-buffer-size",
      "id": "io-file-buffer-size",
      "type": "Property",
      "key": "io.file.buffer.size",
      "value": "4096"
    },
    {
      "name": "fs-s3-block-size",
      "id": "fs-s3-block-size",
      "type": "Property",
      "key": "fs.s3.block.size",
      "value": "67108864"
    }
  ]
}
```

## Sintaksis
<a name="property-syntax"></a>

Objek ini mencakup bidang berikut.


****  

| Bidang yang Wajib Diisi | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| kunci | kunci | String | 
| nilai | nilai | String | 

 


****  

| Bidang Opsional | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| induk | Induk dari objek saat ini dari mana slot diwariskan. | Objek Referensi, misalnya, “induk”: \$1"ref”:” myBaseObject Id "\$1 | 

 


****  

| Bidang Runtime | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @version | Versi alur tempat objek dibuat. | String | 

 


****  

| Bidang Sistem | Deskripsi | Jenis Slot | 
| --- | --- | --- | 
| @error | Galat menggambarkan objek yang tidak terbentuk. | String | 
| @pipelineId | ID dari alur tempat objek ini berada. | String | 
| @sphere | Lingkup objek menunjukkan tempatnya dalam siklus hidup: Component Objects memunculkan Instance Objects, yang mengeksekusi Attempt Objects. | String | 

## Lihat Juga
<a name="property-seealso"></a>
+ [EmrCluster](dp-object-emrcluster.md)
+ [EmrConfiguration](dp-object-emrconfiguration.md)
+ [Panduan Rilis Amazon EMR](https://docs.aws.amazon.com/ElasticMapReduce/latest/ReleaseGuide/)