活动 - AWS Data Pipeline

AWS Data Pipeline 不再向新客户提供。的现有客户 AWS Data Pipeline 可以继续照常使用该服务。了解更多

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

活动

JSON 文件的最后一个部分是活动的定义,表示要执行的工作。在本例中,我们使用 RedshiftCopyActivity 组件将数据从 Amazon S3 复制到 Amazon Redshift。有关更多信息,请参阅RedshiftCopyActivity

RedshiftCopyActivity 组件由以下字段定义:

{ "id": "RedshiftCopyActivityId1", "input": { "ref": "S3DataNodeId1" }, "schedule": { "ref": "ScheduleId1" }, "insertMode": "KEEP_EXISTING", "name": "DefaultRedshiftCopyActivity1", "runsOn": { "ref": "Ec2ResourceId1" }, "type": "RedshiftCopyActivity", "output": { "ref": "RedshiftDataNodeId1" } },
id

用户定义 ID,这是仅供您参考的标签。

input

对 Amazon S3 源文件的引用。

schedule

运行此活动的计划。

insertMode

插入类型 (KEEP_EXISTINGOVERWRITE_EXISTINGTRUNCATE)。

name

用户定义名称,这是仅供您参考的标签。

runsOn

执行此活动定义的工作的计算资源。

output

对 Amazon Redshift 目标表的引用。