

AWS Data Pipeline ya no está disponible para nuevos clientes. Los clientes actuales de AWS Data Pipeline pueden seguir utilizando el servicio con normalidad. [Más información](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Copie datos a Amazon Redshift mediante AWS Data Pipeline
<a name="dp-copydata-redshift"></a>

En este tutorial, se explica el proceso de creación de una canalización que mueva datos periódicamente de Amazon S3 a Amazon Redshift mediante la plantilla **Copy to Redshift** de la AWS Data Pipeline consola o un archivo de definición de canalización con la CLI. AWS Data Pipeline 

Amazon S3 es un servicio web que le permite almacenar datos en la nube. Para obtener más información, consulte la [Guía del usuario de Amazon Simple Storage Service](https://docs.aws.amazon.com/AmazonS3/latest/userguide/). 

Amazon Redshift es un servicio de almacenamiento de datos en la nube. Para obtener más información, consulte la [Guía de administración de Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/).

Este tutorial tiene varios requisitos previos. Tras completar los siguientes pasos, puede continuar el tutorial mediante la consola o la CLI.

**Topics**
+ [Antes de comenzar: configurar las opciones de COPY y cargar datos](dp-learn-copy-redshift.md)
+ [Configurar la canalización, crear un grupo de seguridad y crear un clúster de Amazon Redshift](dp-copydata-redshift-prereq.md)
+ [Copiar datos en Amazon Redshift mediante la línea de comandos](dp-copydata-redshift-cli.md)