AWS Data Pipeline 不再向新客户提供。的现有客户 AWS Data Pipeline 可以继续照常使用该服务。了解更多
本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
开始之前:配置 COPY 选项并加载数据
在 AWS Data Pipeline 中将数据复制到 Amazon Redshift 之前,请确保您已:
-
从 Amazon S3 加载数据。
-
在 Amazon Redshift 中设置
COPY
活动。
一旦您让这些选项生效并成功完成数据加载后,将这些选项传输到 AWS Data Pipeline 以便在其中执行复制操作。
有关 COPY
选项,请参阅 Amazon Redshift 数据库开发人员指南中的 COPY。
有关从 Amazon S3 加载数据的步骤,请参阅 Amazon Redshift 数据库开发人员指南中的从 Amazon S3 加载数据。
例如,Amazon Redshift 中的以下 SQL 命令会创建一个名为 LISTING
的新表,并从 Amazon S3 的公开可用的存储桶中复制示例数据。
将 <iam-role-arn>
和区域替换为您自己的值。
有关此示例的详细信息,请参阅 Amazon Redshift 入门指南中的从 Amazon S3 中加载示例数据。
create table listing( listid integer not null distkey, sellerid integer not null, eventid integer not null, dateid smallint not null sortkey, numtickets smallint not null, priceperticket decimal(8,2), totalprice decimal(8,2), listtime timestamp); copy listing from 's3://awssampledbuswest2/tickit/listings_pipe.txt' credentials 'aws_iam_role=<iam-role-arn>' delimiter '|' region 'us-west-2';