

AWS Data Pipeline n'est plus disponible pour les nouveaux clients. Les clients existants de AWS Data Pipeline peuvent continuer à utiliser le service normalement. [En savoir plus](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Activité
<a name="dp-copydata-redshift-activity-cli"></a>

La dernière section du fichier JSON correspond à la définition de l'activité représentant le travail à effectuer. Dans ce cas, nous utilisons un `RedshiftCopyActivity` composant pour copier les données d'Amazon S3 vers Amazon Redshift. Pour de plus amples informations, veuillez consulter [RedshiftCopyActivity](dp-object-redshiftcopyactivity.md).

Le composant `RedshiftCopyActivity` est défini par les champs suivants :

```
{
  "id": "RedshiftCopyActivityId1",
  "input": {
    "ref": "S3DataNodeId1"
  },
  "schedule": {
    "ref": "ScheduleId1"
  },
  "insertMode": "KEEP_EXISTING",
  "name": "DefaultRedshiftCopyActivity1",
  "runsOn": {
    "ref": "Ec2ResourceId1"
  },
  "type": "RedshiftCopyActivity",
  "output": {
    "ref": "RedshiftDataNodeId1"
  }
},
```

`id`  
ID défini par l'utilisateur (libellé fourni à titre de référence uniquement).

`input`  
Une référence au fichier source Amazon S3.

`schedule`  
Planification d'exécution de cette activité.

`insertMode`  
Type d'insertion (`KEEP_EXISTING`, `OVERWRITE_EXISTING` ou `TRUNCATE`).

`name`  
Nom défini par l'utilisateur (libellé fourni à titre de référence uniquement).

`runsOn`  
Ressource de calcul qui effectue le travail que cette activité définit.

`output`  
Une référence à la table de destination Amazon Redshift.