

AWS Data Pipeline ya no está disponible para nuevos clientes. Los clientes actuales de AWS Data Pipeline pueden seguir utilizando el servicio con normalidad. [Más información](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Nodos de datos
<a name="dp-copydata-redshift-node-cli"></a>

En este ejemplo se usan un nodo de datos de entrada, un nodo de datos de salida y una base de datos.

**Nodo de datos de entrada**  
El componente de canalización `S3DataNode` de entrada define la ubicación de los datos de entrada en Amazon S3 y el formato de datos de los datos de entrada. Para obtener más información, consulte [S3 DataNode](dp-object-s3datanode.md).

Este componente de entrada se define por los siguientes campos:

```
{
  "id": "S3DataNodeId1",
  "schedule": {
    "ref": "ScheduleId1"
  },
  "filePath": "s3://datapipeline-us-east-1/samples/hive-ads-samples.csv",
  "name": "DefaultS3DataNode1",
  "dataFormat": {
    "ref": "CSVId1"
  },
  "type": "S3DataNode"
},
```

`id`  
El ID definido por el usuario, que es una etiqueta solo con fines de referencia.

`schedule`  
Una referencia al componente de programación.

`filePath`  
La ruta a los datos asociados al nodo de datos, que es un archivo de entrada CSV en este ejemplo.

`name`  
El nombre definido por el usuario, que es una etiqueta solo con fines de referencia.

`dataFormat`  
Una referencia al formato de los datos para la actividad que se procesará.

**Nodo de datos de salida**  
El componente de canalización `RedshiftDataNode` de salida define una ubicación para los datos de salida; en este caso, una tabla de una base de datos de Amazon Redshift. Para obtener más información, consulte [RedshiftDataNode](dp-object-redshiftdatanode.md). Este componente de salida se define por los siguientes campos: 

```
{
  "id": "RedshiftDataNodeId1",
  "schedule": {
    "ref": "ScheduleId1"
  },
  "tableName": "orders",
  "name": "DefaultRedshiftDataNode1",
  "createTableSql": "create table StructuredLogs (requestBeginTime CHAR(30) PRIMARY KEY DISTKEY SORTKEY, requestEndTime CHAR(30), hostname CHAR(100), requestDate varchar(20));",
  "type": "RedshiftDataNode",
  "database": {
    "ref": "RedshiftDatabaseId1"
  }
},
```

`id`  
El ID definido por el usuario, que es una etiqueta solo con fines de referencia.

`schedule`  
Una referencia al componente de programación.

`tableName`  
Nombre de la tabla de Amazon Redshift.

`name`  
El nombre definido por el usuario, que es una etiqueta solo con fines de referencia.

`createTableSql`  
Una expresión SQL para crear la tabla en la base de datos.

`database`  
Una referencia a la base de datos de Amazon Redshift.

**Base de datos**  
El componente `RedshiftDatabase` se define por los siguientes campos. Para obtener más información, consulte [RedshiftDatabase](dp-object-redshiftdatabase.md).

```
{
  "id": "RedshiftDatabaseId1",
  "databaseName": "dbname",
  "username": "user",
  "name": "DefaultRedshiftDatabase1",
  "*password": "password",
  "type": "RedshiftDatabase",
  "clusterId": "redshiftclusterId"
},
```

`id`  
El ID definido por el usuario, que es una etiqueta solo con fines de referencia.

`databaseName`  
El nombre de la base de datos lógica.

`username`  
El nombre de usuario para conectarse a la base de datos.

`name`  
El nombre definido por el usuario, que es una etiqueta solo con fines de referencia.

`password`  
La contraseña para conectarse a la base de datos.

`clusterId`  
El ID del clúster de Redshift. 