

AWS Data Pipeline não está mais disponível para novos clientes. Os clientes existentes do AWS Data Pipeline podem continuar usando o serviço normalmente. [Saiba mais](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Atividade
<a name="dp-copydata-redshift-activity-cli"></a>

A última seção no arquivo JSON é a definição da atividade que representa o trabalho a ser executado. Neste caso, usamos um componente `RedshiftCopyActivity` para copiar dados do Amazon S3 para o Amazon Redshift. Para obter mais informações, consulte [RedshiftCopyActivity](dp-object-redshiftcopyactivity.md).

O componente `RedshiftCopyActivity` é definido pelos seguintes campos:

```
{
  "id": "RedshiftCopyActivityId1",
  "input": {
    "ref": "S3DataNodeId1"
  },
  "schedule": {
    "ref": "ScheduleId1"
  },
  "insertMode": "KEEP_EXISTING",
  "name": "DefaultRedshiftCopyActivity1",
  "runsOn": {
    "ref": "Ec2ResourceId1"
  },
  "type": "RedshiftCopyActivity",
  "output": {
    "ref": "RedshiftDataNodeId1"
  }
},
```

`id`  
O ID definido pelo usuário, que é apenas um rótulo para sua referência.

`input`  
Uma referência para o arquivo de origem do Amazon S3.

`schedule`  
A programação na qual esta atividade será executada.

`insertMode`  
O tipo de inserção (`KEEP_EXISTING`, `OVERWRITE_EXISTING` ou `TRUNCATE`).

`name`  
O nome definido pelo usuário, que é apenas um rótulo para sua referência.

`runsOn`  
O recurso computacional que realiza o trabalho definido por essa atividade.

`output`  
Uma referência à tabela de destino do Amazon Redshift.