

Amazon Timestream for LiveAnalytics와 유사한 기능을 원하는 경우 Amazon Timestream for InfluxDB를 고려해 보세요. 간소화된 데이터 수집과 실시간 분석을 위한 10밀리초 미만의 쿼리 응답 시간을 제공합니다. [여기](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html)에서 자세히 알아보세요.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon SageMaker AI
<a name="Sagemaker"></a>

 Amazon SageMaker 노트북을 사용하여 기계 학습 모델을 Amazon Timestream과 통합할 수 있습니다. 시작하는 데 도움이 되도록 Timestream의 데이터를 처리하는 샘플 SageMaker 노트북을 생성했습니다. 데이터는 데이터를 지속적으로 전송하는 다중 스레드 Python 애플리케이션에서 Timestream으로 삽입됩니다. 샘플 SageMaker 노트북과 샘플 Python 애플리케이션의 소스 코드는 GitHub에서 제공됩니다.

1. [데이터베이스 생성](console_timestream.md#console_timestream.db.using-console) 및 [테이블 생성](console_timestream.md#console_timestream.table.using-console)에 설명된 지침에 따라 데이터베이스와 테이블을 생성합니다.

1. [GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository)의 지침에 따라 [다중 스레드 Python 샘플 애플리케이션](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/python/continuous-ingestor)의 GitHub 리포지토리를 복제합니다.

1. GitHub의 지침에 따라 [샘플 Timestream SageMaker 노트북](https://github.com/awslabs/amazon-timestream-tools/blob/master/integrations/sagemaker)의 [ GitHub](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository) 리포지토리를 복제합니다.

1. [README](https://github.com/awslabs/amazon-timestream-tools/blob/mainline/tools/python/continuous-ingestor/README.md)의 지침에 따라 Timestream에 지속적으로 데이터를 수집하기 위한 애플리케이션을 실행합니다.

1. 지침에 따라 [여기](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-config-permissions.html)에 설명된 대로 Amazon SageMaker용 Amazon S3 버킷을 생성합니다.

1. 최신 boto3가 설치된 Amazon SageMaker 인스턴스를 생성합니다. [여기](https://docs.aws.amazon.com/sagemaker/latest/dg/gs-setup-working-env.html)에 설명된 지침 외에도 아래 단계를 따르세요.

   1. **노트북 인스턴스 생성** 페이지에서 **추가 구성**을 클릭합니다.

   1. **수명 주기 구성 - *선택 사항***을 클릭하고 **새로운 수명 주기 구성 생성**을 선택합니다.

   1. *수명 주기 구성 생성* 마법사 상자에서 다음을 수행합니다.

      1. 구성에 원하는 이름(예: `on-start`)을 입력합니다.

      1. 노트북 시작 스크립트에서 [ \$1Github](https://github.com/aws-samples/amazon-sagemaker-notebook-instance-lifecycle-config-samples/blob/master/scripts/install-pip-package-single-environment/on-start.sh)의 스크립트 콘텐츠를 복사하여 붙여 넣습니다.

      1. 붙여넣은 스크립트에서 `PACKAGE=scipy`를 `PACKAGE=boto3`으로 바꿉니다.

1. **구성 생성**을 클릭합니다.

1. AWS Management Console에서 IAM 서비스로 이동하여 노트북 인스턴스를 위해 새로 생성된 SageMaker 실행 역할을 찾습니다.

1. 실행 역할에 `AmazonTimestreamFullAccess`에 대한 IAM 정책을 연결합니다.
**참고**  
`AmazonTimestreamFullAccess` IAM 정책은 특정 리소스에 국한되지 않으며 프로덕션 사용에는 부적합합니다. 프로덕션 시스템의 경우 특정 리소스에 대한 액세스를 제한하는 정책 사용을 고려하세요.

1. 노트북 인스턴스의 상태가 **InService**인 경우 **Jupyter 열기**를 선택하여 해당 인스턴스에 대한 SageMaker 노트북을 시작합니다.

1.  **업로드** 버튼을 선택하여 노트북에 파일 `timestreamquery.py` 및 `Timestream_SageMaker_Demo.ipynb`를 업로드합니다.

1.  선택`Timestream_SageMaker_Demo.ipynb`
**참고**  
**커널을 찾을 수 없음** 팝업이 나타나면 **conda\$1python3**을 선택하고 **커널 설정**을 클릭합니다.

1. 훈련 모델의 데이터베이스 이름, 테이블 이름, S3 버킷 이름 및 리전과 일치하도록 `DB_NAME`, `TABLE_NAME`, `bucket` 및 `ENDPOINT`를 수정합니다.

1. **재생** 아이콘을 선택하여 개별 셀을 실행합니다.

1. `Leverage Timestream to find hosts with average CPU utilization across the fleet` 셀에 도달하면 출력이 최소 2개의 호스트 이름을 반환하는지 확인합니다.
**참고**  
출력에 호스트 이름이 2개 미만인 경우 더 많은 스레드와 호스트 규모로 Timestream에 데이터를 수집하는 샘플 Python 애플리케이션을 다시 실행해야 할 수 있습니다.

1. `Train a Random Cut Forest (RCF) model using the CPU utilization history` 셀에 도달하면 훈련 작업에 대한 리소스 요구 사항에 따라 `train_instance_type`을 변경합니다.

1. `Deploy the model for inference` 셀에 도달하면 추론 작업에 대한 리소스 요구 사항에 따라 `instance_type`을 변경합니다.
**참고**  
모델을 훈련하는 데 몇 분가량 소요될 수 있습니다. 훈련이 완료되면 셀 출력에 **완료됨 - 훈련 작업 완료** 메시지가 표시됩니다.

1. `Stop and delete the endpoint` 셀을 실행하여 리소스를 정리합니다. SageMaker 콘솔에서 인스턴스를 중지하고 삭제할 수도 있습니다.