

 Amazon Redshift는 패치 198부터 새 Python UDF 생성을 더 이상 지원하지 않습니다. 기존 Python UDF는 2026년 6월 30일까지 계속 작동합니다. 자세한 내용은 [블로그 게시물](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/)을 참조하세요.

# Amazon S3에서 데이터 로드
<a name="query-editor-v2-loading-data"></a>

Amazon S3 데이터를 기존 테이블 또는 새로운 테이블로 로드할 수 있습니다.

**기존 테이블에 데이터를 로드하려면**

COPY 명령은 쿼리 편집기 v2가 Amazon S3에서 데이터를 로드하는 데 사용됩니다. 쿼리 편집기 v2 데이터 로드 마법사에서 생성되고 사용되는 COPY 명령은 Amazon S3에서 복사하기 위해 COPY 명령 구문에 사용할 수 있는 많은 파라미터를 지원합니다. COPY 명령 및 Amazon S3에서 데이터를 로드하는 데 사용되는 옵션에 대한 자세한 내용은 *Amazon Redshift 데이터베이스 개발자 안내서*의 [Amazon S3에서 COPY](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html)를 참조하세요.

1. 데이터를 로드하려는 데이터베이스에 테이블이 이미 생성되었는지 확인합니다.

1. 계속하기 전에 쿼리 에디터 v2의 트리 뷰 패널에서 대상 데이터베이스에 연결되어 있는지 확인합니다. 컨텍스트 메뉴(마우스 오른쪽 버튼 클릭)를 사용하여 데이터를 로드할 클러스터 또는 작업 그룹에 연결할 수 있습니다.

   ![\[Load\]](http://docs.aws.amazon.com/ko_kr/redshift/latest/mgmt/images/qev2-upload.png)**데이터 로드(Load data)**를 선택합니다.

1. **데이터 소스**에서 **S3에서 로드**를 선택합니다.

1. **S3 URI(S3 URIs)**에서 **S3 찾아보기(Browse S3)**를 선택하여 로드할 데이터가 들어 있는 Amazon S3 버킷을 찾습니다.

1. 지정된 Amazon S3 버킷이 대상 테이블과 동일한 AWS 리전에 있지 않은 경우 데이터가 있는 AWS 리전에 대한 **S3 file location**(S3 파일 위치)을 선택합니다.

1. Amazon S3 파일이 실제로 여러 Amazon S3 버킷 URI를 포함하는 매니페스트인 경우 **이 파일은 매니페스트 파일임(This file is a manifest file)**을 선택합니다.

1. 업로드할 파일의 **파일 형식(File format)**을 선택합니다. 지원되는 데이터 형식은 CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET 및 ORC입니다. 지정된 파일 형식에 따라 해당 **파일 옵션(File options)**을 선택할 수 있습니다. 데이터가 암호화된 경우 **데이터가 암호화됨(Data is encrypted)**을 선택하고 데이터 암호화에 사용된 KMS 키의 Amazon 리소스 이름(ARN)을 입력할 수도 있습니다.

   CSV 또는 DELIMITER를 선택하면 **구분자 문자**를 선택하고, 지정한 수의 행이 실제로 열 이름이고 로드할 데이터가 아닌 경우 **헤더 행을 무시**할지 여부도 선택할 수 있습니다.

1. 파일을 압축할 압축 방법을 선택합니다. 기본값은 압축 안 함(no compression)입니다.

1. (선택 사항) **고급 설정(Advanced settings)**은 다양한 **데이터 변환 파라미터(Data conversion parameters)**와 **로드 작업(Load operations)**을 지원합니다. 파일에 필요한 대로 이 정보를 입력합니다.

   데이터 변환 및 데이터 로드 파라미터에 대한 자세한 내용은 *Amazon Redshift 데이터베이스 개발자 안내서*의 [데이터 변환 파라미터](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html)와 [데이터 로드 작업](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html)을 참조하세요.

1. **다음**을 선택합니다.

1. **기존 테이블 로드**를 선택합니다.

1. 데이터가 로드되는 **클러스터 또는 작업 그룹**, **데이터베이스**, **스키마** 및 **테이블** 이름을 포함한 **대상 테이블**의 위치를 확인하거나 선택합니다.

1. Amazon S3에서 데이터를 로드하는 데 필요한 권한이 있는 **IAM 역할**을 선택합니다.

1. (선택 사항) 열 이름을 선택하여 **Column mapping**(열 매핑)에 이름을 입력하면 입력 데이터 파일의 순서대로 열이 매핑됩니다.

1. **데이터 로드(Load data)**를 선택하여 데이터 로드를 시작합니다.

   로드가 완료되면 데이터를 로드하는 데 사용된 생성된 COPY 명령과 함께 쿼리 편집기가 표시됩니다. COPY의 **결과(Result)**가 표시됩니다. 성공하면 이제 SQL을 사용하여 로드된 테이블에서 데이터를 선택할 수 있습니다. 오류가 발생하면 시스템 보기 STL\$1LOAD\$1ERRORS를 쿼리하여 자세한 내용을 확인합니다. COPY 명령 오류에 대한 내용은 *Amazon Redshift Database 개발자 안내서*의 [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html)를 참조하세요.

새 테이블에 데이터를 로드하면 쿼리 에디터 v2가 먼저 데이터베이스에 테이블을 생성한 다음 동일한 워크플로우에서 별도의 작업으로 데이터를 로드합니다.

**새로운 테이블에 데이터 로드**

COPY 명령은 쿼리 편집기 v2가 Amazon S3에서 데이터를 로드하는 데 사용됩니다. 쿼리 편집기 v2 데이터 로드 마법사에서 생성되고 사용되는 COPY 명령은 Amazon S3에서 복사하기 위해 COPY 명령 구문에 사용할 수 있는 많은 파라미터를 지원합니다. COPY 명령 및 Amazon S3에서 데이터를 로드하는 데 사용되는 옵션에 대한 자세한 내용은 *Amazon Redshift 데이터베이스 개발자 안내서*의 [Amazon S3에서 COPY](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html)를 참조하세요.

1. 계속하기 전에 쿼리 에디터 v2의 트리 뷰 패널에서 대상 데이터베이스에 연결되어 있는지 확인합니다. 컨텍스트 메뉴(마우스 오른쪽 버튼 클릭)를 사용하여 데이터를 로드할 클러스터 또는 작업 그룹에 연결할 수 있습니다.

   ![\[Load\]](http://docs.aws.amazon.com/ko_kr/redshift/latest/mgmt/images/qev2-upload.png)**데이터 로드(Load data)**를 선택합니다.

1. **데이터 소스**에서 **S3에서 로드**를 선택합니다.

1. **S3 URI(S3 URIs)**에서 **S3 찾아보기(Browse S3)**를 선택하여 로드할 데이터가 들어 있는 Amazon S3 버킷을 찾습니다.

1. 지정된 Amazon S3 버킷이 대상 테이블과 동일한 AWS 리전에 있지 않은 경우 데이터가 있는 AWS 리전에 대한 **S3 file location**(S3 파일 위치)을 선택합니다.

1. Amazon S3 파일이 실제로 여러 Amazon S3 버킷 URI를 포함하는 매니페스트인 경우 **이 파일은 매니페스트 파일임(This file is a manifest file)**을 선택합니다.

1. 업로드할 파일의 **파일 형식(File format)**을 선택합니다. 지원되는 데이터 형식은 CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET 및 ORC입니다. 지정된 파일 형식에 따라 해당 **파일 옵션(File options)**을 선택할 수 있습니다. 데이터가 암호화된 경우 **데이터가 암호화됨(Data is encrypted)**을 선택하고 데이터 암호화에 사용된 KMS 키의 Amazon 리소스 이름(ARN)을 입력할 수도 있습니다.

   CSV 또는 DELIMITER를 선택하면 **구분자 문자**를 선택하고, 지정한 수의 행이 실제로 열 이름이고 로드할 데이터가 아닌 경우 **헤더 행을 무시**할지 여부도 선택할 수 있습니다.

1. 파일을 압축할 압축 방법을 선택합니다. 기본값은 압축 안 함(no compression)입니다.

1. (선택 사항) **고급 설정(Advanced settings)**은 다양한 **데이터 변환 파라미터(Data conversion parameters)**와 **로드 작업(Load operations)**을 지원합니다. 파일에 필요한 대로 이 정보를 입력합니다.

   데이터 변환 및 데이터 로드 파라미터에 대한 자세한 내용은 *Amazon Redshift 데이터베이스 개발자 안내서*의 [데이터 변환 파라미터](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html)와 [데이터 로드 작업](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html)을 참조하세요.

1. **다음**을 선택합니다.

1. **새 테이블 로드**를 선택합니다.

   테이블 열은 입력 데이터에서 추론됩니다. 열 및 테이블 세부 정보를 추가하여 테이블 스키마의 정의를 수정할 수 있습니다. 쿼리 에디터 v2 추론 테이블 스키마로 되돌리려면 **기본값으로 복원**을 선택합니다.

1. 데이터가 로드되는 **클러스터 또는 작업 그룹**, **데이터베이스** 및 **스키마**를 포함한 **대상 테이블**의 위치를 확인하거나 선택합니다. 생성할 **테이블** 이름을 입력합니다.

1. Amazon S3에서 데이터를 로드하는 데 필요한 권한이 있는 **IAM 역할**을 선택합니다.

1. **테이블 생성**을 선택하여 표시된 정의를 사용해 테이블을 생성합니다.

   테이블 정의의 검토 요약이 표시됩니다. 데이터베이스에서 테이블이 생성됩니다. 나중에 테이블을 삭제하려면 DROP TABLE SQL 명령을 실행합니다. 자세한 내용은 *Amazon Redshift Database 개발자 안내서*의 [DROP TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_DROP_TABLE)을 참조하세요.

1. **데이터 로드(Load data)**를 선택하여 데이터 로드를 시작합니다.

   로드가 완료되면 데이터를 로드하는 데 사용된 생성된 COPY 명령과 함께 쿼리 편집기가 표시됩니다. COPY의 **결과(Result)**가 표시됩니다. 성공하면 이제 SQL을 사용하여 로드된 테이블에서 데이터를 선택할 수 있습니다. 오류가 발생하면 시스템 보기 STL\$1LOAD\$1ERRORS를 쿼리하여 자세한 내용을 확인합니다. COPY 명령 오류에 대한 내용은 *Amazon Redshift Database 개발자 안내서*의 [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html)를 참조하세요.