

AWS Data Pipeline 不再提供給新客戶。的現有客戶 AWS Data Pipeline 可以繼續正常使用服務。[進一步了解](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 什麼是 AWS Data Pipeline？
<a name="what-is-datapipeline"></a>

**注意**  
AWS Data Pipeline 服務處於維護模式，未規劃新功能或區域擴展。若要進一步了解並了解如何遷移現有的工作負載，請參閱 [從 遷移工作負載 AWS Data Pipeline](migration.md)。

AWS Data Pipeline 是一種 Web 服務，可用來自動化資料的移動和轉換。使用 AWS Data Pipeline，您可以定義資料驅動型工作流程，以便任務可以依賴於成功完成先前的任務。您可以定義資料轉換的參數，並 AWS Data Pipeline 強制執行您設定的邏輯。

下列 元件共同 AWS Data Pipeline 運作以管理您的資料：
+ 「管道定義」**指定您資料管理的商業邏輯。如需詳細資訊，請參閱[管道定義檔案語法](dp-writing-pipeline-definition.md)。
+ *管道*透過建立 Amazon EC2 執行個體來執行定義的工作活動來排程和執行任務。您要將您的管道定義上傳到管道，然後啟動管道。您可以編輯管道定義以執行管道，並再次啟動管道讓它生效。您可以停用管道、修改資料來源，然後再次啟動管道。管道完成後，即可刪除。
+  *任務執行器*輪詢任務，然後執行這些任務。例如，Task Runner 可以將日誌檔案複製到 Amazon S3 並啟動 Amazon EMR 叢集。任務執行器已安裝並在管道定義建立的資源上自動執行。您可以撰寫自訂任務執行器應用程式，也可以使用 提供的任務執行器應用程式 AWS Data Pipeline。如需詳細資訊，請參閱[任務執行器](dp-how-remote-taskrunner-client.md)。

 例如，您可以使用 AWS Data Pipeline 每天將 Web 伺服器的日誌封存至 Amazon Simple Storage Service (Amazon S3)，然後在這些日誌上執行每週 Amazon EMR (Amazon EMR) 叢集，以產生流量報告。 會 AWS Data Pipeline 排程每日任務以複製資料，以及每週任務以啟動 Amazon EMR 叢集。 AWS Data Pipeline 也會確保 Amazon EMR 會等待最後一天的資料上傳到 Amazon S3，再開始分析，即使上傳日誌時發生無法預期的延遲。

![\[AWS Data Pipeline 功能概觀\]](http://docs.aws.amazon.com/zh_tw/datapipeline/latest/DeveloperGuide/images/dp-how-dp-works-v2.png)


**Topics**
+ [從 遷移工作負載 AWS Data Pipeline](migration.md)
+ [相關服務](datapipeline-related-services.md)
+ [存取 AWS Data Pipeline](#accessing-datapipeline)
+ [定價](#datapipeline-pricing)
+ [管道工作活動支援的執行個體類型](dp-supported-instance-types.md)

## 存取 AWS Data Pipeline
<a name="accessing-datapipeline"></a>

您可以使用下列任一界面來建立、存取和管理您的管道：
+ **AWS 管理主控台**— 提供可用來存取的 Web 界面 AWS Data Pipeline。
+ **AWS Command Line Interface (AWS CLI)** — 為廣泛的 AWS 服務提供命令，包括 Windows AWS Data Pipeline、macOS 和 Linux 支援 和 。如需安裝 的詳細資訊 AWS CLI，請參閱 [AWS Command Line Interface](https://aws.amazon.com/cli/)。如需 的命令清單 AWS Data Pipeline，請參閱[資料管道](https://docs.aws.amazon.com/cli/latest/reference/datapipeline/index.html)。
+ **AWS 開發套件** — 提供語言特定 API，並處理許多連線詳細資訊，例如計算簽章、處理請求重試和錯誤處理。如需詳細資訊，請參閱 [AWS 開發套件](https://aws.amazon.com/tools/#SDKs)。
+ **查詢 API** — 提供您使用 HTTPS 請求呼叫的低階 APIs。使用查詢 API 是存取 AWS Data Pipeline最直接的方式，但這需要您的應用程式處理低階詳細資訊，例如產生雜湊以簽署請求以及錯誤處理。如需詳細資訊，請參閱 *[AWS Data Pipeline API 參考](https://docs.aws.amazon.com/datapipeline/latest/APIReference/)*。

## 定價
<a name="datapipeline-pricing"></a>

使用 Amazon Web Services，您只需按實際用量付費。對於 AWS Data Pipeline，您需要根據活動和先決條件的排程執行頻率及其執行位置來支付管道的費用。如需詳細資訊，請參閱[AWS Data Pipeline 定價](https://aws.amazon.com/datapipeline/pricing/)。

如果您的 AWS 帳戶不超過 12 個月，您符合免費方案的使用資格。免費方案包含每月免費的 3 個低頻率先決條件和 5 個低頻率活動。如需詳細資訊，請參閱 [AWS 免費方案](https://aws.amazon.com/free/)。