

 Amazon Redshift は、パッチ 198 以降、新しい Python UDF の作成をサポートしなくなります。既存の Python UDF は、2026 年 6 月 30 日まで引き続き機能します。詳細については、[ブログ記事](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/)を参照してください。

# Amazon S3 からデータをロードする
<a name="query-editor-v2-loading-data"></a>

既存のテーブルまたは新しいテーブルに Amazon S3 データをロードできます。

**データを既存のテーブルにロードするには**

クエリエディタ v2 は、Amazon S3 からデータをロードするために COPY コマンドを使用します。クエリエディタ v2 の [データのロード] ウィザードで生成および使用される COPY コマンドは、Amazon S3 からのコピー時に COPY コマンド構文で使用できる、多くのパラメータをサポートしています。Amazon S3 からデータをロードするための COPY コマンドと使用するオプションの詳細については、*Amazon Redshift データベース開発者ガイド*の「[Amazon S3 からの COPY](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html)」を参照してください。

1. データをロードするデータベースに、テーブルがすでに作成されていることを確認します。

1. 次に進む前に、クエリエディタ v2 のツリービューパネルで、ターゲットデータベースに接続していることを確認します。コンテキストメニュー (右クリック) を使用して、データをロードするクラスターまたはワークグループへの接続を作成できます。

   ![\[Load\]](http://docs.aws.amazon.com/ja_jp/redshift/latest/mgmt/images/qev2-upload.png)**[Load data]** (データをロード) をクリックします。

1. **[データソース]** では、**[S3 バケットからロード]** を選択します。

1. **[S3 URI]** で **[Browse S3]** (S3 をブラウズ) をクリックして、ロードするデータが含まれている Amazon S3 バケットを検索します。

1. 指定した Amazon S3 バケットがターゲットテーブルと同じ AWS リージョン にない場合、**[S3 file location]** (S3 ファイルの場所) でデータが置かれた AWS リージョン を選択します。

1. Amazon S3 ファイルが実際に複数の Amazon S3 バケット URI を含むマニフェストである場合。**[This file is a manifest file]** (このファイルはマニフェストファイルです) を選択します。

1. アップロードするファイルの **[File format]** (ファイル形式) を選択します。サポートされているデータ形式は、CSV、JSON、DELIMITER、FIXEDWIDTH、SHAPEFILE、AVRO、PARQUET、ORC です。指定したファイル形式に応じて、それぞれの **[File options]** (ファイルオプション) を選択できます。また、データが暗号化されており、暗号化に使用する KMS キーの Amazon リソースネーム (ARN) を入力した場合には、**[Data is encrypted]** (データは暗号化されています) を選択できます。

   CSV または DELIMITER を選択すると、指定した行数が実際には列名であり、ロードするデータではない場合に、**[区切り文字]** で **[ヘッダー行を無視する]** を選択することもできます。

1. 圧縮方法を選択してファイルを圧縮します。デフォルトでは圧縮なしです。

1. (オプション) **[Advanced settings]** (詳細設定) では、さまざまな **[Data conversion parameters]** (データ変換パラメータ) や **[Load operations]** (ロードオペレーション) がサポートされています。ファイルの必要に応じて、この情報を入力します。

   データ変換パラメータとデータロードパラメータの詳細については、「*Amazon Redshift データベースデベロッパーガイド*」の「[データ変換パラメータ](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html)」と「[データのロード操作](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html)」を参照してください。

1. [**次へ**] を選択します。

1. **[既存のテーブルをロード]** を選択します。

1. **[クラスターまたはワークグループ]**、**[データベース]**、**[スキーマ]**、**[テーブル]** の名前など、データをロードする先の **[ターゲットテーブル]** の場所を確認または選択します。

1. Amazon S3 からデータをロードするために必要な許可を持つ **[IAM role]** (IAM ロール) を選択します。

1. (オプション) 列名を選択して **[Column mapping]** (列のマッピング) に入力すると、入力データファイルの順序で列がマッピングされます。

1. **[Load data]** (データをロード) をクリックして、データのロードを開始します。

   ロードが完了すると、データのロードのために生成された COPY コマンドとともに、クエリエディタが表示されます。COPY の **[Result]** (結果) は次のように表示されます。成功すると、ロードされたテーブルから SQL を使用してデータを選択できるようになります。エラーが発生した場合は、システムビュー STL\$1LOAD\$1ERRORS にクエリを実行して、詳細を取得します。COPY コマンドとそのエラーについては、*Amazon Redshift データベース開発者ガイド*の「[STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html)」を参照してください。

新しいテーブルにデータをロードすると、クエリエディタ v2 は最初にデータベースにテーブルを作成してから、同じワークフローの別のアクションとしてデータをロードします。

**データを新しいテーブルにロードするには**

クエリエディタ v2 は、Amazon S3 からデータをロードするために COPY コマンドを使用します。クエリエディタ v2 の [データのロード] ウィザードで生成および使用される COPY コマンドは、Amazon S3 からのコピー時に COPY コマンド構文で使用できる、多くのパラメータをサポートしています。Amazon S3 からデータをロードするための COPY コマンドと使用するオプションの詳細については、*Amazon Redshift データベース開発者ガイド*の「[Amazon S3 からの COPY](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html)」を参照してください。

1. 次に進む前に、クエリエディタ v2 のツリービューパネルで、ターゲットデータベースに接続していることを確認します。コンテキストメニュー (右クリック) を使用して、データをロードするクラスターまたはワークグループへの接続を作成できます。

   ![\[Load\]](http://docs.aws.amazon.com/ja_jp/redshift/latest/mgmt/images/qev2-upload.png)**[Load data]** (データをロード) をクリックします。

1. **[データソース]** では、**[S3 バケットからロード]** を選択します。

1. **[S3 URI]** で **[Browse S3]** (S3 をブラウズ) をクリックして、ロードするデータが含まれている Amazon S3 バケットを検索します。

1. 指定した Amazon S3 バケットがターゲットテーブルと同じ AWS リージョン にない場合、**[S3 file location]** (S3 ファイルの場所) でデータが置かれた AWS リージョン を選択します。

1. Amazon S3 ファイルが実際に複数の Amazon S3 バケット URI を含むマニフェストである場合。**[This file is a manifest file]** (このファイルはマニフェストファイルです) を選択します。

1. アップロードするファイルの **[File format]** (ファイル形式) を選択します。サポートされているデータ形式は、CSV、JSON、DELIMITER、FIXEDWIDTH、SHAPEFILE、AVRO、PARQUET、ORC です。指定したファイル形式に応じて、それぞれの **[File options]** (ファイルオプション) を選択できます。また、データが暗号化されており、暗号化に使用する KMS キーの Amazon リソースネーム (ARN) を入力した場合には、**[Data is encrypted]** (データは暗号化されています) を選択できます。

   CSV または DELIMITER を選択すると、指定した行数が実際には列名であり、ロードするデータではない場合に、**[区切り文字]** で **[ヘッダー行を無視する]** を選択することもできます。

1. 圧縮方法を選択してファイルを圧縮します。デフォルトでは圧縮なしです。

1. (オプション) **[Advanced settings]** (詳細設定) では、さまざまな **[Data conversion parameters]** (データ変換パラメータ) や **[Load operations]** (ロードオペレーション) がサポートされています。ファイルの必要に応じて、この情報を入力します。

   データ変換パラメータとデータロードパラメータの詳細については、「*Amazon Redshift データベースデベロッパーガイド*」の「[データ変換パラメータ](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html)」と「[データのロード操作](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html)」を参照してください。

1. [**次へ**] を選択します。

1. **[新しいテーブルをロード]** を選択します。

   テーブルの列は入力データから推測されます。列とテーブルの詳細を追加すると、テーブルスキーマの定義を変更できます。クエリエディタ v2 の推測されたテーブルスキーマに戻すには、**[デフォルトに戻す]** を選択します。

1. **[クラスターまたはワークグループ]**、**[データベース]**、**[スキーマ]** など、データをロードする先の **[ターゲットテーブル]** の場所を確認または選択します。作成する**テーブル**の名前を入力します。

1. Amazon S3 からデータをロードするために必要な許可を持つ **[IAM role]** (IAM ロール) を選択します。

1. **[テーブルを作成]** を選択し、表示されている定義を使用してテーブルを作成します。

   テーブル定義のレビューの要約が表示されます。テーブルがデータベースに作成されます。後でテーブルを削除するには、DROP TABLE SQL コマンドを実行します。詳細については、*Amazon Redshift データベースデベロッパーガイド*の「[DROP TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_DROP_TABLE)」を参照してください。

1. **[Load data]** (データをロード) をクリックして、データのロードを開始します。

   ロードが完了すると、データのロードのために生成された COPY コマンドとともに、クエリエディタが表示されます。COPY の **[Result]** (結果) は次のように表示されます。成功すると、ロードされたテーブルから SQL を使用してデータを選択できるようになります。エラーが発生した場合は、システムビュー STL\$1LOAD\$1ERRORS にクエリを実行して、詳細を取得します。COPY コマンドとそのエラーについては、*Amazon Redshift データベース開発者ガイド*の「[STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html)」を参照してください。