

AWS Data Pipeline 不再向新客户提供。的现有客户 AWS Data Pipeline 可以继续照常使用该服务。[了解详情](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 资源
<a name="dp-copydata-redshift-resource-cli"></a>

这是执行复制操作的计算资源的定义。在此示例中， AWS Data Pipeline 应自动创建一个 EC2 实例来执行复制任务，并在任务完成后终止该实例。此处定义的字段控制完成任务的实例的创建和功能。有关更多信息，请参阅 [Ec2Resource](dp-object-ec2resource.md)。

`Ec2Resource` 由以下字段定义：

```
{
  "id": "Ec2ResourceId1",
  "schedule": {
    "ref": "ScheduleId1"
  },
  "securityGroups": "MySecurityGroup",
  "name": "DefaultEc2Resource1",
  "role": "DataPipelineDefaultRole",
  "logUri": "s3://myLogs",
  "resourceRole": "DataPipelineDefaultResourceRole",
  "type": "Ec2Resource"
},
```

`id`  
用户定义 ID，这是仅供您参考的标签。

`schedule`  
根据它来创建此计算资源的计划。

`securityGroups`  
要用于资源池中实例的安全组。

`name`  
用户定义名称，这是仅供您参考的标签。

`role`  
访问资源的账户的 IAM 角色，例如访问 Amazon S3 存储桶检索数据。

`logUri`  
从 `Ec2Resource` 备份任务运行程序日志的 Amazon S3 目标路径。

`resourceRole`  
创建资源的账户的 IAM 角色，如代表您创建和配置 EC2 实例。角色和 ResourceRole 可以是相同的角色，但单独在安全配置中提供更精细的粒度。