

AWS Data Pipeline ya no está disponible para nuevos clientes. Los clientes actuales de AWS Data Pipeline pueden seguir utilizando el servicio con normalidad. [Más información](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Actividad
<a name="dp-copydata-redshift-activity-cli"></a>

La última sección del archivo JSON es la definición de la actividad que representa el trabajo que se realizará. En este caso, usamos un componente `RedshiftCopyActivity` para copiar los datos de Amazon S3 en Amazon Redshift. Para obtener más información, consulte [RedshiftCopyActivity](dp-object-redshiftcopyactivity.md).

El componente `RedshiftCopyActivity` se define por los siguientes campos:

```
{
  "id": "RedshiftCopyActivityId1",
  "input": {
    "ref": "S3DataNodeId1"
  },
  "schedule": {
    "ref": "ScheduleId1"
  },
  "insertMode": "KEEP_EXISTING",
  "name": "DefaultRedshiftCopyActivity1",
  "runsOn": {
    "ref": "Ec2ResourceId1"
  },
  "type": "RedshiftCopyActivity",
  "output": {
    "ref": "RedshiftDataNodeId1"
  }
},
```

`id`  
El ID definido por el usuario, que es una etiqueta solo con fines de referencia.

`input`  
Una referencia al archivo de origen de Amazon S3.

`schedule`  
La programación en la que ejecutar esta actividad.

`insertMode`  
El tipo de inserción (`KEEP_EXISTING`, `OVERWRITE_EXISTING` o `TRUNCATE`).

`name`  
El nombre definido por el usuario, que es una etiqueta solo con fines de referencia.

`runsOn`  
El recurso informático que realiza el trabajo que define esta actividad.

`output`  
Una referencia a la tabla de destino de Amazon Redshift.