

AWS Data Pipeline 不再向新客户提供。的现有客户 AWS Data Pipeline 可以继续照常使用该服务。[了解详情](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# Activity
<a name="dp-copydata-redshift-activity-cli"></a>

JSON 文件的最后一个部分是活动的定义，表示要执行的工作。在本例中，我们使用 `RedshiftCopyActivity` 组件将数据从 Amazon S3 复制到 Amazon Redshift。有关更多信息，请参阅 [RedshiftCopyActivity](dp-object-redshiftcopyactivity.md)。

`RedshiftCopyActivity` 组件由以下字段定义：

```
{
  "id": "RedshiftCopyActivityId1",
  "input": {
    "ref": "S3DataNodeId1"
  },
  "schedule": {
    "ref": "ScheduleId1"
  },
  "insertMode": "KEEP_EXISTING",
  "name": "DefaultRedshiftCopyActivity1",
  "runsOn": {
    "ref": "Ec2ResourceId1"
  },
  "type": "RedshiftCopyActivity",
  "output": {
    "ref": "RedshiftDataNodeId1"
  }
},
```

`id`  
用户定义 ID，这是仅供您参考的标签。

`input`  
对 Amazon S3 源文件的引用。

`schedule`  
运行此活动的计划。

`insertMode`  
插入类型 (`KEEP_EXISTING`、`OVERWRITE_EXISTING` 或 `TRUNCATE`)。

`name`  
用户定义名称，这是仅供您参考的标签。

`runsOn`  
执行此活动定义的工作的计算资源。

`output`  
对 Amazon Redshift 目标表的引用。