

AWS Data Pipeline não está mais disponível para novos clientes. Os clientes existentes do AWS Data Pipeline podem continuar usando o serviço normalmente. [Saiba mais](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Copiar dados para o Amazon Redshift usando a linha de comando
<a name="dp-copydata-redshift-cli"></a>

Este tutorial demonstra como copiar dados do Amazon S3 para o Amazon Redshift. Você criará uma nova tabela no Amazon Redshift e a usará AWS Data Pipeline para transferir dados para essa tabela a partir de um bucket público do Amazon S3, que contém exemplos de dados de entrada no formato CSV. Os logs são salvos em um bucket do Amazon S3 que você possui.

O Amazon S3 é um web service que permite o armazenamento de dados na nuvem. Para obter mais detalhes, consulte o [Manual do usuário do Amazon Simple Storage Service](https://docs.aws.amazon.com/AmazonS3/latest/userguide/). O Amazon Redshift é um serviço de data warehouse na nuvem. Para obter mais informações, consulte o [Guia de gerenciamento do Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/).

**Pré-requisitos**

Antes de começar, é necessário concluir as seguintes etapas:

1. Instale e configure a Interface da linha de comando (CLI). Para obter mais informações, consulte [Acessando AWS Data Pipeline](what-is-datapipeline.md#accessing-datapipeline).

1. Certifique-se de que as funções do IAM tenham sido nomeadas **DataPipelineDefaultRole**e **DataPipelineDefaultResourceRole**existam. O AWS Data Pipeline console cria essas funções para você automaticamente. Se você não usou o AWS Data Pipeline console pelo menos uma vez, deverá criar essas funções manualmente. Para obter mais informações, consulte [Funções do IAM para AWS Data Pipeline](dp-iam-roles.md).

1. Configure o comando `COPY` no Amazon Redshift, pois você precisará ter essas mesmas opções funcionando ao fazer a cópia no AWS Data Pipeline. Para mais informações, consulte [Antes de começar: configurar as opções COPY e carregar dados](dp-learn-copy-redshift.md).

1. Configure um banco de dados do Amazon Redshift. Para obter mais informações, consulte [Configurar pipeline, criar um grupo de segurança e criar um cluster do Amazon Redshift](dp-copydata-redshift-prereq.md).

**Topics**
+ [Definir um pipeline no formato JSON](dp-copydata-redshift-define-pipeline-cli.md)
+ [Fazer upload e ativar a definição do pipeline](dp-copydata-redshift-upload-cli.md)