HiveCopyActivity - AWS Data Pipeline

AWS Data Pipeline 不再提供給新客戶。現有客戶 AWS Data Pipeline 可繼續正常使用此服務。進一步了解

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

HiveCopyActivity

在EMR集群上運行蜂巢查詢。 HiveCopyActivity可讓您更輕鬆地在 DynamoDB 資料表之間複製資料。 HiveCopyActivity接受 HiveQL 陳述式,以便在資料行和資料列層級篩選來自 DynamoDB 的輸入資料。

範例

以下範例會示範如何使用 HiveCopyActivityDynamoDBExportDataFormat 來將資料從一個 DynamoDBDataNode 複製到另一個,同時根據時間戳記來篩選資料。

{ "objects": [ { "id" : "DataFormat.1", "name" : "DataFormat.1", "type" : "DynamoDBExportDataFormat", "column" : "timeStamp BIGINT" }, { "id" : "DataFormat.2", "name" : "DataFormat.2", "type" : "DynamoDBExportDataFormat" }, { "id" : "DynamoDBDataNode.1", "name" : "DynamoDBDataNode.1", "type" : "DynamoDBDataNode", "tableName" : "item_mapped_table_restore_temp", "schedule" : { "ref" : "ResourcePeriod" }, "dataFormat" : { "ref" : "DataFormat.1" } }, { "id" : "DynamoDBDataNode.2", "name" : "DynamoDBDataNode.2", "type" : "DynamoDBDataNode", "tableName" : "restore_table", "region" : "us_west_1", "schedule" : { "ref" : "ResourcePeriod" }, "dataFormat" : { "ref" : "DataFormat.2" } }, { "id" : "EmrCluster.1", "name" : "EmrCluster.1", "type" : "EmrCluster", "schedule" : { "ref" : "ResourcePeriod" }, "masterInstanceType" : "m1.xlarge", "coreInstanceCount" : "4" }, { "id" : "HiveTransform.1", "name" : "Hive Copy Transform.1", "type" : "HiveCopyActivity", "input" : { "ref" : "DynamoDBDataNode.1" }, "output" : { "ref" : "DynamoDBDataNode.2" }, "schedule" :{ "ref" : "ResourcePeriod" }, "runsOn" : { "ref" : "EmrCluster.1" }, "filterSql" : "`timeStamp` > unix_timestamp(\"#{@scheduledStartTime}\", \"yyyy-MM-dd'T'HH:mm:ss\")" }, { "id" : "ResourcePeriod", "name" : "ResourcePeriod", "type" : "Schedule", "period" : "1 Hour", "startDateTime" : "2013-06-04T00:00:00", "endDateTime" : "2013-06-04T01:00:00" } ] }

語法

物件呼叫欄位 描述 槽類型
schedule 在排程間隔的執行期間會呼叫此物件。使用者必須指定另一個物件的排程參考,設定此物件的相依性執行順序。使用者可以在物件上明確設定排程來滿足此需求,例如指定「schedule」: {"ref」: DefaultSchedule "}。在大部分的情況下,建議您將排程參考放在預設的管道物件,讓所有物件都繼承該排程。或者,如果管道有排程的樹狀目錄 (主排程內還有排程),使用者可以建立有排程參考的父物件。如需範例選用排程組態的詳細資訊,請參閱https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-schedule.html 參考對象,例如「時間表」:{「ref」:」myScheduleId「}

必要的群組 (下列其中之一為必要) 描述 槽類型
runsOn 指定要在其中執行的叢集。 引用對象,例如 runsOn「「:{" ref」:」myResourceId「}
workerGroup 工作者群組。這是用於路由任務。如果您提供 runsOn 值,且 workerGroup 存在,則會忽略 workerGroup 字串

選用欄位 描述 槽類型
attemptStatus 遠端活動最新回報的狀態。 字串
attemptTimeout 遠端工作完成的逾時。如果設定,則系統可能會重試未在設定開始時間內完成的遠端活動。 期間
dependsOn 指定與其他可執行物件的相依性。 引用對象,例如 dependsOn「「:{" ref」:」myActivityId「}
failureAndRerun模式 描述相依性故障或重新執行時的消費者節點行為。 列舉
filterSql Hive SQL 陳述式片段,可篩選要複製的 DynamoDB 資料子集或 Amazon S3 資料的子集。篩選器應該只包含述詞,而不是以WHERE子句開頭,因為它會自動 AWS Data Pipeline 加入。 字串
input 輸入資料來源。此必須為 S3DataNodeDynamoDBDataNode。如果您使用 DynamoDBNode,請指定 DynamoDBExportDataFormat 引用對象,例如「輸入」:{「參考」:「myDataNodeID」}
lateAfterTimeout 管線開始後,物件必須在其中完成的經過時間。僅當明細表類型未設定為時,才會觸發此選項ondemand 期間
maxActiveInstances 同時作用中的元件執行個體數目上限。重新執行不計入作用中的執行個體數量。 Integer
maximumRetries 故障時嘗試重試的次數上限。 Integer
onFail 目前物件發生故障時要執行的動作。 引用對象,例如 onFail「「:{" ref」:」myActionId「}
onLateAction 某個物件尚未排程或仍未完成時,應該觸發的動作。 引用對象,例如 onLateAction「「:{" ref」:」myActionId「}
onSuccess 目前物件成功時要執行的動作。 引用對象,例如 onSuccess「「:{" ref」:」myActionId「}
output 輸出資料來源。如果輸入是 S3DataNode,這必須為 DynamoDBDataNode。否則,此項目可以是 S3DataNodeDynamoDBDataNode。如果您使用 DynamoDBNode,請指定 DynamoDBExportDataFormat 引用對象,例如「輸出」:{「ref」:「myDataNodeID」}
parent 目前物件的父系,其槽會被繼承。 引用對象,例如「父」:{「ref」:「myBaseObjectID」}
pipelineLogUri Amazon S3URI,例如 's3://BucketName/Key/',用於上傳管道的日誌。 字串
postActivityTaskConfig 要執行的活動後組態指令碼。這是由 Amazon S3 中URI的殼層指令碼和引數清單所組成。 引用對象,例如「postActivityTaskConfig」:{「ref」:」myShellScript ConfigId「}
preActivityTaskConfig 要執行的活動前組態指令碼。這是由 Amazon S3 中URI的殼層指令碼和引數清單所組成。 引用對象,例如「preActivityTaskConfig」:{「ref」:」myShellScript ConfigId「}
precondition 可選擇性定義先決條件。在符合所有先決條件之前,資料節點不會標記 READY ""。 引用對象,例如「前提條件」:{「ref」:」myPreconditionId「}
reportProgressTimeout 遠端工作連續呼叫 reportProgress 的逾時。如果設定,則不回報指定時段進度的遠端活動,可能會視為已停滯而重試。 期間
resizeClusterBefore跑步 在執行此活動之前重新調整叢集大小,以容納指定為輸入或輸出的 DynamoDB 資料節點。
注意

如果您的活動使用 a DynamoDBDataNode 作為輸入或輸出資料節點,並且resizeClusterBeforeRunning將設定為TRUE,則會 AWS Data Pipeline 開始使用m3.xlarge執行個體類型。這會將您選擇的執行個體類型覆寫為 m3.xlarge,可能會增加您的每月成本。

Boolean
resizeClusterMax實例 調整大小演算法可請求的執行個體數目上限 Integer
retryDelay 兩次重試嘗試之間的逾時持續時間。 期間
scheduleType 排程類型可讓您指定管道定義的物件應該排程在間隔開頭還是間隔結尾。時間序列樣式排程表示執行個體排程在每個間隔的結尾,而 Cron 樣式排程表示執行個體排程在每個間隔的開頭。隨需排程可讓您在每次啟用時執行一次管道。這表示您不必複製或重新建立管道,然後再執行一次。如果您使用隨選排程,則必須在預設物件中指定該排程,且必須是管線中物件的唯一 scheduleType 指定排程。若要使用隨選管線,您只需針對每次後續執行呼叫 ActivatePipeline 作業即可。值為:Cron、ondemand 和 timeseries。 列舉

執行時間欄位 描述 槽類型
@activeInstances 目前已排程的作用中執行個體物件清單。 引用對象,例如 activeInstances「「:{" ref」:」myRunnableObject ID "}
@actualEndTime 此物件執行完成的時間。 DateTime
@actualStartTime 此物件執行開始的時間。 DateTime
cancellationReason cancellationReason 如果此物件已取消。 字串
@cascadeFailedOn 物件失敗所在的相依鏈的描述。 引用對象,例如 cascadeFailedOn「「:{" ref」:」myRunnableObject ID "}
emrStepLog Amazon EMR 步驟日誌僅適用於EMR活動嘗試。 字串
errorId errorId 如果此對象失敗。 字串
errorMessage errorMessage 如果此對象失敗。 字串
errorStackTrace 如果此物件失敗,則為錯誤堆疊追蹤。 字串
@finishedTime 此物件完成其執行的時間。 DateTime
hadoopJobLog Hadoop 工作日誌可用於EMR基於活動的嘗試。 字串
@healthStatus 反映已達終止狀態之最後一個物件執行個體成功或失敗的物件運作狀態。 字串
@healthStatusFromInstanceId 已達終止狀態之最後一個執行個體物件的 ID。 字串
@ healthStatusUpdated 時間 上次更新運作狀態的時間。 DateTime
hostname 選取任務嘗試之用戶端的主機名稱。 字串
@lastDeactivatedTime 此物件最後停用的時間。 DateTime
@ latestCompletedRun 時間 執行完成最近一次執行的時間。 DateTime
@latestRunTime 執行排程最近一次執行的時間。 DateTime
@nextRunTime 下次要排程執行的時間。 DateTime
reportProgressTime 遠端活動最近報告進度的時間。 DateTime
@scheduledEndTime 物件的排程結束時間。 DateTime
@scheduledStartTime 物件的排程開始時間。 DateTime
@status 此物件的狀態。 字串
@version 建立物件使用的管道版本。 字串
@waitingOn 此物件等待之相依性清單的描述。 引用對象,例如 waitingOn「「:{" ref」:」myRunnableObject ID "}

系統欄位 描述 槽類型
@error 描述格式錯誤物件的錯誤。 字串
@pipelineId 此物件所屬管道的 ID。 字串
@sphere 物件範圍代表其在生命週期中的位置:Component 物件會引發執行 Attempt 物件的 Instance 物件。 字串

另請參閱