

AWS Data Pipeline 不再提供給新客戶。的現有客戶 AWS Data Pipeline 可以繼續正常使用服務。[進一步了解](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 使用 將資料複製到 Amazon Redshift AWS Data Pipeline
<a name="dp-copydata-redshift"></a>

本教學課程將逐步引導您建立管道，以定期使用 AWS Data Pipeline 主控台中的複製到 Redshift 範本，或使用 CLI 將資料從 Amazon S3 移至 AWS Data Pipeline Amazon Redshift 的管道定義檔案。 ****

Amazon S3 是一種 Web 服務，可讓您將資料存放在雲端。如需詳細資訊，請參閱 [Amazon Simple Storage Service 使用者指南](https://docs.aws.amazon.com/AmazonS3/latest/userguide/)。

Amazon Redshift 是雲端中的資料倉儲服務。如需詳細資訊，請參閱 [Amazon Redshift 管理指南](https://docs.aws.amazon.com/redshift/latest/mgmt/)。

本教學有數項事前準備。完成下列步驟後，您可以使用主控台或 CLI 繼續教學。

**Topics**
+ [在您開始之前：設定 COPY 選項並載入資料](dp-learn-copy-redshift.md)
+ [設定管道、建立安全群組和建立 Amazon Redshift 叢集](dp-copydata-redshift-prereq.md)
+ [使用命令列將資料複製到 Amazon Redshift](dp-copydata-redshift-cli.md)