

AWS Data Pipeline n'est plus disponible pour les nouveaux clients. Les clients existants de AWS Data Pipeline peuvent continuer à utiliser le service normalement. [En savoir plus](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Avant de commencer : configurer les options COPY et charger des données
<a name="dp-learn-copy-redshift"></a>

Avant de copier des données vers Amazon Redshift depuis votre ordinateur AWS Data Pipeline, assurez-vous de : 
+ Chargez des données depuis Amazon S3.
+ Configurez l'`COPY`activité dans Amazon Redshift. 

Une fois que ces options fonctionnent correctement et que vous avez réussi à charger des données, transférez ces options à AWS Data Pipeline pour y effectuer la copie.

 Pour connaître `COPY` les options, consultez [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) dans le guide du *développeur de base* de données Amazon Redshift. 

Pour savoir comment charger des données depuis Amazon S3, consultez la section [Chargement de données depuis Amazon S3](https://docs.aws.amazon.com/redshift/latest/dg/t_Loading-data-from-S3.html) dans le manuel Amazon Redshift *Database Developer Guide*. 

Par exemple, la commande SQL suivante dans Amazon Redshift crée une nouvelle table nommée `LISTING` et copie des exemples de données depuis un compartiment accessible au public dans Amazon S3. 

Remplacez le `<iam-role-arn>` et la région par vos propres valeurs. 

Pour plus de détails sur cet exemple, consultez [Charger des échantillons de données depuis Amazon S3](https://docs.aws.amazon.com/redshift/latest/gsg/rs-gsg-create-sample-db.html) dans le guide de *démarrage* Amazon Redshift.

```
create table listing(
	listid integer not null distkey,
	sellerid integer not null,
	eventid integer not null,
	dateid smallint not null  sortkey,
	numtickets smallint not null,
	priceperticket decimal(8,2),
	totalprice decimal(8,2),
	listtime timestamp);

copy listing from 's3://awssampledbuswest2/tickit/listings_pipe.txt' 
credentials 'aws_iam_role=<iam-role-arn>' 
delimiter '|' region 'us-west-2';
```