

AWS Data Pipeline は新規顧客には利用できなくなりました。の既存のお客様は、通常どおりサービスを AWS Data Pipeline 引き続き使用できます。[詳細はこちら](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# コマンドラインを使用した Amazon Redshift へのデータのコピー
<a name="dp-copydata-redshift-cli"></a>

このチュートリアルでは、データを Amazon S3 から Amazon Redshift にコピーする方法を示します。Amazon Redshift で新しいテーブルを作成し、 AWS Data Pipeline を使用して、CSV 形式のサンプル入力データを含むパブリック Amazon S3 バケットからこのテーブルにデータを転送します。ログはお客様が所有する Amazon S3 バケットに保存されます。

Amazon S3 は、クラウドにデータを保存できるウェブサービスです。詳細については、[Amazon Simple Storage Service ユーザーガイド](https://docs.aws.amazon.com/AmazonS3/latest/userguide/)を参照してください。Amazon Redshift は、クラウド内のデータウェアハウスサービスです。詳細については、「[Amazon Redshift 管理ガイド](https://docs.aws.amazon.com/redshift/latest/mgmt/)」を参照してください。

**前提条件**

開始する前に、次のステップを完了しておく必要があります。

1. コマンドラインインターフェイス (CLI) をインストールして設定します。詳細については、「[アクセス AWS Data Pipeline](what-is-datapipeline.md#accessing-datapipeline)」を参照してください。

1. **DataPipelineDefaultRole** と **DataPipelineDefaultResourceRole** という名前の IAM ロールが存在していることを確認します。 AWS Data Pipeline コンソールでは、これらのロールが自動的に作成されます。 AWS Data Pipeline コンソールを一度も使用していない場合は、これらのロールを手動で作成する必要があります。詳細については、「[の IAM ロール AWS Data Pipeline](dp-iam-roles.md)」を参照してください。

1. Amazon Redshift で `COPY` コマンドをセットアップします。これは AWS Data Pipelineでコピーを実行するときに同じオプションが機能する必要があるためです。詳細については、「[開始する前に: COPY オプションの設定とデータのロード](dp-learn-copy-redshift.md)」を参照してください。

1. Amazon Redshift データベースを設定します。詳細については、「[パイプラインのセットアップ、セキュリティグループの作成、および Amazon Redshift クラスターの作成](dp-copydata-redshift-prereq.md)」を参照してください。

**Topics**
+ [JSON 形式でパイプラインを定義する](dp-copydata-redshift-define-pipeline-cli.md)
+ [パイプライン定義をアップロードし、アクティブ化する](dp-copydata-redshift-upload-cli.md)