AWS Data Pipeline n'est plus disponible pour les nouveaux clients. Les clients existants de AWS Data Pipeline peuvent continuer à utiliser le service normalement. En savoir plus
Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Activité
La dernière section du fichier JSON correspond à la définition de l'activité représentant le travail à effectuer. Dans ce cas, nous utilisons un RedshiftCopyActivity
composant pour copier les données d'Amazon S3 vers Amazon Redshift. Pour plus d'informations, veuillez consulter RedshiftCopyActivity.
Le composant RedshiftCopyActivity
est défini par les champs suivants :
{ "id": "RedshiftCopyActivityId1", "input": { "ref": "S3DataNodeId1" }, "schedule": { "ref": "ScheduleId1" }, "insertMode": "KEEP_EXISTING", "name": "DefaultRedshiftCopyActivity1", "runsOn": { "ref": "Ec2ResourceId1" }, "type": "RedshiftCopyActivity", "output": { "ref": "RedshiftDataNodeId1" } },
id
-
ID défini par l'utilisateur (libellé fourni à titre de référence uniquement).
input
-
Une référence au fichier source Amazon S3.
schedule
-
Planification d'exécution de cette activité.
insertMode
-
Type d'insertion (
KEEP_EXISTING
,OVERWRITE_EXISTING
ouTRUNCATE
). name
-
Nom défini par l'utilisateur (libellé fourni à titre de référence uniquement).
runsOn
-
Ressource de calcul qui effectue le travail que cette activité définit.
output
-
Une référence à la table de destination Amazon Redshift.