

AWS Data Pipeline 는 더 이상 신규 고객이 사용할 수 없습니다. 의 기존 고객은 평소와 같이 서비스를 계속 사용할 AWS Data Pipeline 수 있습니다. [자세히 알아보기](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 활동
<a name="dp-copydata-redshift-activity-cli"></a>

수행할 작업을 나타내는 활동의 정의인 JSON 파일에 있는 마지막 선택입니다. 이 경우 `RedshiftCopyActivity`구성요소를 사용하여 Amazon S3에서 Amazon Redshift로 데이터를 복사합니다. 자세한 내용은 [RedshiftCopyActivity](dp-object-redshiftcopyactivity.md) 단원을 참조하십시오.

`RedshiftCopyActivity` 구성요소는 다음 필드로 정의됩니다.

```
{
  "id": "RedshiftCopyActivityId1",
  "input": {
    "ref": "S3DataNodeId1"
  },
  "schedule": {
    "ref": "ScheduleId1"
  },
  "insertMode": "KEEP_EXISTING",
  "name": "DefaultRedshiftCopyActivity1",
  "runsOn": {
    "ref": "Ec2ResourceId1"
  },
  "type": "RedshiftCopyActivity",
  "output": {
    "ref": "RedshiftDataNodeId1"
  }
},
```

`id`  
참조 전용 레이블인 사용자 정의 ID입니다.

`input`  
Amazon S3 소스 파일의 참조입니다.

`schedule`  
이 활동을 실행할 일정입니다.

`insertMode`  
인서트 유형(`KEEP_EXISTING`, `OVERWRITE_EXISTING` 또는 `TRUNCATE`)입니다.

`name`  
참조 전용 라벨인 사용자 정의 이름입니다.

`runsOn`  
이 활동이 정의하는 작업을 수행할 전산 리소스입니다.

`output`  
Amazon Redshift 대상 테이블의 참조입니다.