

AWS Data Pipeline não está mais disponível para novos clientes. Os clientes existentes do AWS Data Pipeline podem continuar usando o serviço normalmente. [Saiba mais](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Copiar dados para o Amazon Redshift usando AWS Data Pipeline
<a name="dp-copydata-redshift"></a>

Este tutorial mostra o processo de criação de um pipeline que move periodicamente dados do Amazon S3 para o Amazon Redshift usando o modelo **Copy to Redshift** no console ou um arquivo de definição de pipeline com AWS Data Pipeline a CLI. AWS Data Pipeline 

O Amazon S3 é um web service que permite o armazenamento de dados na nuvem. Para obter mais detalhes, consulte o [Manual do usuário do Amazon Simple Storage Service](https://docs.aws.amazon.com/AmazonS3/latest/userguide/). 

O Amazon Redshift é um serviço de data warehouse na nuvem. Para obter mais informações, consulte o [Guia de gerenciamento do Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/).

Este tutorial tem vários pré-requisitos. Depois de concluir as etapas a seguir, você poderá continuar o tutorial usando o console ou a CLI.

**Topics**
+ [Antes de começar: configurar as opções COPY e carregar dados](dp-learn-copy-redshift.md)
+ [Configurar pipeline, criar um grupo de segurança e criar um cluster do Amazon Redshift](dp-copydata-redshift-prereq.md)
+ [Copiar dados para o Amazon Redshift usando a linha de comando](dp-copydata-redshift-cli.md)