AWS Data Pipeline ist für Neukunden nicht mehr verfügbar. Bestehende Kunden von AWS Data Pipeline können den Service weiterhin wie gewohnt nutzen. Weitere Informationen
Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Bevor Sie beginnen: Konfigurieren Sie COPY-Optionen und laden Sie Daten
Bevor Sie Daten innerhalb von Amazon Redshift kopieren, stellen Sie sicherAWS Data Pipeline, dass Sie:
-
Laden Sie Daten aus Amazon S3.
-
Richten Sie die
COPY
Aktivität in Amazon Redshift ein.
Wenn Sie diese Optionen aktiviert und erfolgreich Daten geladen haben, übertragen Sie diese Optionen in AWS Data Pipeline, um den Kopiervorgang darin auszuführen.
COPY
Optionen finden Sie unter COPY im Amazon Redshift Database Developer Guide.
Schritte zum Laden von Daten aus Amazon S3 finden Sie unter Daten aus Amazon S3 laden im Amazon Redshift Database Developer Guide.
Beispielsweise erstellt der folgende SQL-Befehl in Amazon Redshift eine neue Tabelle mit dem Namen LISTING
und kopiert Beispieldaten aus einem öffentlich verfügbaren Bucket in Amazon S3.
Ersetzen Sie den <iam-role-arn>
und die Region durch Ihre eigenen Werte.
Einzelheiten zu diesem Beispiel finden Sie unter Laden von Beispieldaten aus Amazon S3 im Amazon Redshift Getting Started Guide.
create table listing( listid integer not null distkey, sellerid integer not null, eventid integer not null, dateid smallint not null sortkey, numtickets smallint not null, priceperticket decimal(8,2), totalprice decimal(8,2), listtime timestamp); copy listing from 's3://awssampledbuswest2/tickit/listings_pipe.txt' credentials 'aws_iam_role=<iam-role-arn>' delimiter '|' region 'us-west-2';