

AWS Data Pipeline 不再向新客户提供。的现有客户 AWS Data Pipeline 可以继续照常使用该服务。[了解详情](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 使用将数据复制到亚马逊 Redshift AWS Data Pipeline
<a name="dp-copydata-redshift"></a>

本教程将引导您完成创建管道的过程，该管道使用 AWS Data Pipeline 控制台中的 “**复制到 Redshift” 模板或带有 CLI 的管道定义文件定期将数据从 Amazon S3 移动到 Amazon Redshift**。 AWS Data Pipeline 

Amazon S3 是一项 Web 服务，可让您在云中存储数据。有关更多信息，请参阅 [Amazon Simple Storage Service 用户指南](https://docs.aws.amazon.com/AmazonS3/latest/userguide/)。

Amazon Redshift 是云中的数据仓库服务。有关更多信息，请参阅 [Amazon Redshift 管理指南](https://docs.aws.amazon.com/redshift/latest/mgmt/)。

本教程有几个先决条件。完成以下步骤后，您可以使用控制台或 CLI 继续本教程。

**Topics**
+ [开始之前：配置 COPY 选项并加载数据](dp-learn-copy-redshift.md)
+ [设置管道，创建安全组，并创建 Amazon Redshift 集群](dp-copydata-redshift-prereq.md)
+ [使用命令行复制数据到 Amazon Redshift](dp-copydata-redshift-cli.md)