AWS Data Pipeline 不再提供給新客戶。現有客戶 AWS Data Pipeline 可繼續正常使用此服務。進一步了解
本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
資料節點
此範例使用輸入資料節點、輸出資料節點和資料庫。
輸入資料節點
輸入S3DataNode
管道元件會定義 Amazon S3 中輸入資料的位置以及輸入資料的資料格式。如需詳細資訊,請參閱S3 DataNode。
此輸入元件是由下列欄位定義:
{ "id": "S3DataNodeId1", "schedule": { "ref": "ScheduleId1" }, "filePath": "s3://datapipeline-us-east-1/samples/hive-ads-samples.csv", "name": "DefaultS3DataNode1", "dataFormat": { "ref": "CSVId1" }, "type": "S3DataNode" },
id
-
使用者定義的 ID,這是僅供您參考的標籤。
schedule
-
對排程元件的參考。
filePath
-
與資料節點相關聯資料的路徑,在此範例中是 CSV 輸入檔。
name
-
使用者定義的名稱,這是僅供您參考的標籤。
dataFormat
-
對要處理之活動資料格式的參考。
輸出資料節點
輸出RedshiftDataNode
管線元件會定義輸出資料的位置;在此情況下,是 Amazon Redshift 資料庫中的資料表。如需詳細資訊,請參閱RedshiftDataNode。此輸出元件是由下列欄位定義:
{ "id": "RedshiftDataNodeId1", "schedule": { "ref": "ScheduleId1" }, "tableName": "orders", "name": "DefaultRedshiftDataNode1", "createTableSql": "create table StructuredLogs (requestBeginTime CHAR(30) PRIMARY KEY DISTKEY SORTKEY, requestEndTime CHAR(30), hostname CHAR(100), requestDate varchar(20));", "type": "RedshiftDataNode", "database": { "ref": "RedshiftDatabaseId1" } },
id
-
使用者定義的 ID,這是僅供您參考的標籤。
schedule
-
對排程元件的參考。
tableName
-
Amazon Redshift 資料表的名稱。
name
-
使用者定義的名稱,這是僅供您參考的標籤。
createTableSql
-
在資料庫建立資料表的 SQL 表達式。
database
-
對亞馬遜紅移數據庫的引用。
資料庫
RedshiftDatabase
元件是由下列欄位定義。如需詳細資訊,請參閱RedshiftDatabase。
{ "id": "RedshiftDatabaseId1", "databaseName": "
dbname
", "username": "user
", "name": "DefaultRedshiftDatabase1", "*password": "password
", "type": "RedshiftDatabase", "clusterId": "redshiftclusterId" },
id
-
使用者定義的 ID,這是僅供您參考的標籤。
databaseName
-
邏輯資料庫的名稱。
username
-
連線至資料庫的使用者名稱。
name
-
使用者定義的名稱,這是僅供您參考的標籤。
password
-
連線至資料庫的密碼。
clusterId
-
Redshift 叢集的 ID。