

AWS Data Pipeline ist für Neukunden nicht mehr verfügbar. Bestandskunden von AWS Data Pipeline können den Service weiterhin wie gewohnt nutzen. [Weitere Informationen](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Bevor Sie beginnen: Konfigurieren Sie COPY-Optionen und laden Sie Daten
<a name="dp-learn-copy-redshift"></a>

Bevor Sie Daten nach Amazon Redshift innerhalb kopieren, stellen Sie sicher AWS Data Pipeline, dass Sie: 
+ Daten aus Amazon S3 laden.
+ Richten Sie die `COPY` Aktivität in Amazon Redshift ein. 

Wenn Sie diese Optionen aktiviert und erfolgreich Daten geladen haben, übertragen Sie diese Optionen in AWS Data Pipeline, um den Kopiervorgang darin auszuführen.

 `COPY`Optionen finden Sie unter [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) im Amazon Redshift *Database Developer Guide*. 

Schritte zum Laden von Daten aus Amazon S3 finden Sie unter [Daten aus Amazon S3 laden](https://docs.aws.amazon.com/redshift/latest/dg/t_Loading-data-from-S3.html) im Amazon Redshift *Database Developer Guide*. 

Der folgende SQL-Befehl in Amazon Redshift erstellt beispielsweise eine neue Tabelle mit dem Namen `LISTING` und kopiert Beispieldaten aus einem öffentlich verfügbaren Bucket in Amazon S3. 

Ersetzen Sie den `<iam-role-arn>` und die Region durch Ihre eigenen Werte. 

Einzelheiten zu diesem Beispiel finden Sie unter [Beispieldaten aus Amazon S3 laden im Amazon](https://docs.aws.amazon.com/redshift/latest/gsg/rs-gsg-create-sample-db.html) Redshift *Getting Started Guide*.

```
create table listing(
	listid integer not null distkey,
	sellerid integer not null,
	eventid integer not null,
	dateid smallint not null  sortkey,
	numtickets smallint not null,
	priceperticket decimal(8,2),
	totalprice decimal(8,2),
	listtime timestamp);

copy listing from 's3://awssampledbuswest2/tickit/listings_pipe.txt' 
credentials 'aws_iam_role=<iam-role-arn>' 
delimiter '|' region 'us-west-2';
```