

AWS Data Pipeline 不再提供給新客戶。的現有客戶 AWS Data Pipeline 可以繼續正常使用服務。[進一步了解](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 資料節點
<a name="dp-copydata-redshift-node-cli"></a>

此範例使用輸入資料節點、輸出資料節點和資料庫。

**輸入資料節點**  
輸入`S3DataNode`管道元件會定義 Amazon S3 中輸入資料的位置，以及輸入資料的資料格式。如需詳細資訊，請參閱[S3DataNode](dp-object-s3datanode.md)。

此輸入元件是由下列欄位定義：

```
{
  "id": "S3DataNodeId1",
  "schedule": {
    "ref": "ScheduleId1"
  },
  "filePath": "s3://datapipeline-us-east-1/samples/hive-ads-samples.csv",
  "name": "DefaultS3DataNode1",
  "dataFormat": {
    "ref": "CSVId1"
  },
  "type": "S3DataNode"
},
```

`id`  
使用者定義的 ID，這是僅供您參考的標籤。

`schedule`  
對排程元件的參考。

`filePath`  
與資料節點相關聯資料的路徑，在此範例中是 CSV 輸入檔。

`name`  
使用者定義的名稱，這是僅供您參考的標籤。

`dataFormat`  
對要處理之活動資料格式的參考。

**輸出資料節點**  
輸出`RedshiftDataNode`管道元件會定義輸出資料的位置；在此情況下，Amazon Redshift 資料庫中的資料表。如需詳細資訊，請參閱[RedshiftDataNode](dp-object-redshiftdatanode.md)。此輸出元件是由下列欄位定義：

```
{
  "id": "RedshiftDataNodeId1",
  "schedule": {
    "ref": "ScheduleId1"
  },
  "tableName": "orders",
  "name": "DefaultRedshiftDataNode1",
  "createTableSql": "create table StructuredLogs (requestBeginTime CHAR(30) PRIMARY KEY DISTKEY SORTKEY, requestEndTime CHAR(30), hostname CHAR(100), requestDate varchar(20));",
  "type": "RedshiftDataNode",
  "database": {
    "ref": "RedshiftDatabaseId1"
  }
},
```

`id`  
使用者定義的 ID，這是僅供您參考的標籤。

`schedule`  
對排程元件的參考。

`tableName`  
Amazon Redshift 資料表的名稱。

`name`  
使用者定義的名稱，這是僅供您參考的標籤。

`createTableSql`  
在資料庫建立資料表的 SQL 表達式。

`database`  
Amazon Redshift 資料庫的參考。

**資料庫**  
`RedshiftDatabase` 元件是由下列欄位定義。如需詳細資訊，請參閱[RedshiftDatabase](dp-object-redshiftdatabase.md)。

```
{
  "id": "RedshiftDatabaseId1",
  "databaseName": "dbname",
  "username": "user",
  "name": "DefaultRedshiftDatabase1",
  "*password": "password",
  "type": "RedshiftDatabase",
  "clusterId": "redshiftclusterId"
},
```

`id`  
使用者定義的 ID，這是僅供您參考的標籤。

`databaseName`  
邏輯資料庫的名稱。

`username`  
連線至資料庫的使用者名稱。

`name`  
使用者定義的名稱，這是僅供您參考的標籤。

`password`  
連線至資料庫的密碼。

`clusterId`  
Redshift 叢集的 ID。