

Amazon Timestream for LiveAnalytics와 유사한 기능을 원하는 경우 Amazon Timestream for InfluxDB를 고려해 보세요. 간소화된 데이터 수집과 실시간 분석을 위한 10밀리초 미만의 쿼리 응답 시간을 제공합니다. [여기](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html)에서 자세히 알아보세요.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 콘솔에서 배치 로드 사용
<a name="batch-load-using-console"></a>

다음은 AWS Management Console에서 배치 로드를 사용하는 단계입니다. 샘플 CSV에서 [샘플 CSV](samples/batch-load-sample-file.csv.zip)를 다운로드할 수 있습니다.

**Topics**
+ [배치 로드 액세스](#console_timestream.access-batch-load.using-console)
+ [배치 로드 태스크 생성](#console_timestream.create-batch-load.using-console)
+ [배치 로드 태스크 재개](#console_timestream.resume-batch-load.using-console)
+ [비주얼 빌더 사용](#batch-load-using-visual-builder)

## 배치 로드 액세스
<a name="console_timestream.access-batch-load.using-console"></a>

다음 단계에 따라 AWS Management Console을 사용하여 배치 로드에 액세스합니다.

1. [Amazon Timestream 콘솔](https://console.aws.amazon.com/timestream)을 엽니다.

1. 탐색 창에서 **관리 도구**를 선택한 다음 **배치 로드 태스크**를 선택합니다.

1. 여기에서 배치 로드 태스크 목록을 보고 지정된 태스크를 자세히 살펴볼 수 있습니다. 태스크를 생성하고 재개할 수도 있습니다.

## 배치 로드 태스크 생성
<a name="console_timestream.create-batch-load.using-console"></a>

다음 단계에 따라 AWS Management Console을 사용하여 배치 로드 태스크를 생성합니다.

1. [Amazon Timestream 콘솔](https://console.aws.amazon.com/timestream)을 엽니다.

1. 탐색 창에서 **관리 도구**를 선택한 다음 **배치 로드 태스크**를 선택합니다.

1. **배치 로드 태스크 생성**을 선택합니다.

1. **가져오기 대상**에서 다음을 선택합니다.
   + **대상 데이터베이스** - [데이터베이스 생성](console_timestream.md#console_timestream.db.using-console)에서 생성된 데이터베이스의 이름을 선택합니다.
   + **대상 테이블** - [테이블 생성](console_timestream.md#console_timestream.table.using-console)에서 생성된 테이블의 이름을 선택합니다.

   필요한 경우 **새 테이블 생성** 버튼을 사용하여 이 패널의 테이블을 추가할 수 있습니다.

1. **데이터 소스**의 **데이터 소스 S3** 위치에서 소스 데이터가 저장되는 S3 버킷을 선택합니다. **S3 찾아보**기 버튼을 사용하여 활성 AWS 계정이 액세스할 수 있는 S3 리소스를 보거나 S3 위치 URL을 입력합니다. 데이터 소스는 동일한 리전에 있어야 합니다.

1. **파일 형식 설정**(확장 가능 섹션)에서 기본 설정을 사용하여 입력 데이터를 구문 분석할 수 있습니다. **고급 설정**을 선택할 수도 있습니다. 여기에서 **CSV 형식 파라미터**를 선택하고 파라미터를 선택하여 입력 데이터를 구문 분석할 수 있습니다. 이러한 파라미터에 대한 자세한 내용은 [CSV 형식 파라미터](batch-load-preparing-data-file.md#batch-load-data-file-options) 섹션을 참조하세요.

1. **데이터 모델 매핑 구성**에서 데이터 모델을 구성합니다. 추가 데이터 모델 지침은 [배치 로드를 위한 데이터 모델 매핑](batch-load-data-model-mappings.md) 섹션을 참조하세요.
   + **데이터 모델 매핑**에서 **구성 입력 매핑**을 선택하고 다음 중 하나를 선택합니다.
     + **비주얼 빌더** - 데이터를 시각적으로 매핑하려면 **TargetMultiMeasureName** 또는 **MeasureNameColumn**을 선택합니다. 그런 다음 **비주얼 빌더**에서 열을 매핑합니다.

       비주얼 빌더는 단일 CSV 파일을 데이터 소스로 선택하면 데이터 소스 파일에서 소스 열 헤더를 자동으로 탐지하고 로드합니다. 매핑을 생성할 속성과 데이터 유형을 선택합니다.

       비주얼 빌더 사용에 대한 자세한 내용은 [비주얼 빌더 사용](#batch-load-using-visual-builder) 섹션을 참조하세요.
     + **JSON 편집기** - 데이터 모델을 구성하기 위한 자유 형식 JSON 편집기입니다. Timestream for LiveAnalytics에 익숙하고 고급 데이터 모델 매핑을 구축하려는 경우 이 옵션을 선택합니다.
     + **S3의 JSON 파일** - S3에 저장한 JSON 모델 파일을 선택합니다. 데이터 모델을 이미 구성했고 추가 배치 로드에 재사용하려는 경우 이 옵션을 선택합니다.

1. **오류 로그 보고서**의 **오류 로그 S3 위치**에서 오류를 보고하는 데 사용할 S3 위치를 선택합니다. 이 보고서를 사용하는 방법에 대한 자세한 내용은 [배치 로드 오류 보고서 사용](batch-load-using-error-reports.md) 섹션을 참조하세요.

1. **암호화 키 유형**에서 다음 중 하나를 선택합니다.
   + **Amazon S3 관리형 키(SSE-S3)** - Amazon S3에서 생성, 관리 및 사용하는 암호화 키입니다.
   + **AWS KMS key (SSE-KMS)** - AWS Key Management Service ()로 보호되는 암호화 키입니다AWS KMS.

1. **다음**을 선택합니다.

1. **검토 및 생성 페이지**에서 설정을 검토하고 필요에 따라 편집합니다.
**참고**  
태스크가 생성된 후에는 배치 로드 태스크 설정을 변경할 수 없습니다. 태스크 완료 시간은 가져오는 데이터의 양에 따라 달라집니다.

1. **배치 로드 태스크 생성**을 선택합니다.

## 배치 로드 태스크 재개
<a name="console_timestream.resume-batch-load.using-console"></a>

상태가 '진행 중지됨'이고 여전히 재개 가능한 배치 로드 태스크를 선택하면 태스크를 재개하라는 메시지가 표시됩니다. 해당 태스크에 대한 세부 정보를 볼 때 **태스크 재개** 버튼이 있는 배너도 있습니다. 재개 가능한 태스크에는 '재개 기한' 날짜가 있습니다. 이 날짜가 만료된 후에는 태스크를 재개할 수 없습니다.

## 비주얼 빌더 사용
<a name="batch-load-using-visual-builder"></a>

비주얼 빌더를 사용하여 S3 버킷에 저장된 하나 이상의 CSV 파일의 소스 데이터 열을 Timestream for LiveAnalytics 테이블의 대상 열에 매핑할 수 있습니다.

**참고**  
역할에는 파일에 대한 `SelectObjectContent` 권한이 필요합니다. 이렇게 하지 않으면 열을 수동으로 추가하고 삭제해야 합니다.

### 자동 로드 소스 열 모드
<a name="batch-load-using-visual-builder-auto-load"></a>

버킷을 하나만 지정하는 경우 Timestream for LiveAnalytics는 소스 CSV 파일에서 열 이름을 자동으로 스캔할 수 있습니다. 기존 매핑이 없는 경우 **소스 열 가져오기**를 선택할 수 있습니다.

1. **매핑 구성 입력 설정**에서 **비주얼 빌더** 옵션을 선택한 상태에서 타임스탬프 시간 입력을 설정합니다. `Milliseconds`가 기본 설정입니다.

1. **소스 열 로드** 버튼을 클릭하여 소스 데이터 파일에 있는 열 헤더를 가져옵니다. 테이블은 데이터 소스 파일의 소스 열 헤더 이름으로 채워집니다.

1. 각 소스 열에 대해 **대상 테이블 열 이름**, **Timestream 속성 유형** 및 **데이터 유형**을 선택합니다.

   이러한 열과 가능한 값에 대한 자세한 내용은 [필드 매핑](#batch-load-using-visual-builder-mapping-fields) 섹션을 참조하세요.

1. 끌어서 채우기 기능을 사용하여 여러 열의 값을 한 번에 설정합니다.

### 수동으로 소스 열 추가
<a name="batch-load-using-visual-builder-manually-add"></a>

단일 CSV가 아닌 버킷 또는 CSV 접두사를 사용하는 경우 **열 매핑 추가** 및 **열 매핑 삭제** 버튼을 사용하여 시각적 편집기에서 열 매핑을 추가하고 삭제할 수 있습니다. 매핑을 재설정하는 버튼도 있습니다.

### 필드 매핑
<a name="batch-load-using-visual-builder-mapping-fields"></a>
+ **소스 열 이름** - 가져올 측정값을 나타내는 소스 파일의 열 이름입니다. **소스 열 가져오기**를 사용할 때 Timestream for LiveAnalytics가 이 값을 자동으로 채울 수 있습니다.
+ **대상 테이블 열 이름** - 대상 테이블에서 측정의 열 이름을 나타내는 선택적 입력입니다.
+ **Timestream 속성 유형** - `DIMENSION`과 같이 지정된 소스 열에 있는 데이터의 속성 유형입니다.
  + **TIMESTAMP** - 측정값이 수집된 시점을 지정합니다.
  + **MULTI** - 여러 측정값이 표시됩니다.
  + **DIMENSION** - 시계열 메타데이터입니다.
  + **MEAABILITY\$1NAME** - 단일 측정 레코드의 경우 이는 측정 이름입니다.
+ **데이터 유형** - `BOOLEAN`과 같은 Timestream 열의 유형입니다.
  + **BIGINT** - 64비트 정수입니다.
  + **BOOLEAN** - 로직의 두 가지 실제 값인 true와 false입니다.
  + **DOUBLE** - 64비트 가변 정밀도 숫자입니다.
  + **TIMESTAMP** - UTC에서 나노초 정밀도 시간을 사용하고 Unix 에포크 이후의 시간을 추적하는 시간 단위의 인스턴스입니다.