기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon MSK
Managed Service for Apache Flink를 사용하여 Timestream for LiveAnalytics로 Amazon MSK 데이터 전송
Managed Service for Apache Flink의 샘플 데이터 커넥터와 유사한 데이터 커넥터를 구축 Timestream 하여에서 Amazon MSK 로 Timestream 데이터를 전송할 수 있습니다. 자세한 내용은 Amazon Managed Service for Apache Flink 섹션을 참조하세요.
Kafka Connect를 사용하여 Amazon MSK 데이터를 Timestream for LiveAnalytics로 전송
Kafka Connect를 사용하여 시계열 데이터를에서 Timestream for LiveAnalytics로 Amazon MSK 직접 수집할 수 있습니다.
에 대한 샘플 Kafka Sink Connector를 생성했습니다 Timestream. 또한 데이터를 Kafka 주제에 게시하기 위한 샘플 Apache jMeter 테스트 계획을 생성하여 데이터가 Timestream Kafka Sink Connector를 통해 주제에서 Timestream for LiveAnalytics 테이블로 흐를 수 있도록 했습니다. 이러한 모든 아티팩트는 GitHub에서 사용할 수 있습니다.
참고
Java 11은 Timestream Kafka Sink Connector 사용에 권장되는 버전입니다. Java 버전이 여러 개인 경우 Java 11을 JAVA_HOME 환경 변수로 내보내야 합니다.
샘플 애플리케이션 생성
시작하려면 아래 절차를 따르세요.
-
Timestream for LiveAnalytics에서 이름이 인 데이터베이스를 생성합니다
kafkastream
.자세한 지침은 절차를 참조 데이터베이스 생성하세요.
-
Timestream for LiveAnalytics에서 이름이 인 테이블을 생성합니다
purchase_history
.자세한 지침은 절차를 테이블 생성 참조하세요.
-
에서 공유하는 지침에 따라 , 및를 생성합니다.
Amazon MSK 클러스터
Kafka 생산자 클라이언트 시스템으로 구성된 Amazon EC2 인스턴스
Kafka 주제
자세한 지침은 kafka_ingestor 프로젝트의 사전 조건을
참조하세요. -
Timestream Kafka Sink Connector
리포지토리를 복제합니다. 자세한 지침은 리포지토리 onWord 복제
를 참조하세요. GitHub -
플러그인 코드를 컴파일합니다.
자세한 지침은 커넥터 - 소스 onWord에서 빌드
를 참조하세요. GitHub -
에 설명된 지침에 따라 S3 버킷에 다음 파일을 업로드합니다.
-
/target
디렉터리의 jar 파일(kafka-connector-timestream->VERSION<-jar-with-dependencies.jar) -
샘플 json 스키마 파일,
purchase_history.json
.
자세한 지침은 Amazon S3 사용 설명서의 객체 업로드를 참조하세요.
-
-
두 개의 VPC 엔드포인트를 생성합니다. 이러한 엔드포인트는 MSK Connector에서 AWS PrivateLink를 사용하여 리소스에 액세스하는 데 사용됩니다.
-
Amazon S3 버킷에 액세스하는 방법
-
하나는 Timestream for LiveAnalytics 테이블에 액세스하는 것입니다.
자세한 지침은 VPC 엔드포인트
를 참조하세요. -
-
업로드된 jar 파일로 사용자 지정 플러그인을 생성합니다.
자세한 지침은 Amazon MSK 개발자 안내서의 플러그인을 참조하세요.
-
작업자 구성 파라미터에 설명된 JSON 콘텐츠를 사용하여 사용자 지정 작업자 구성을 생성합니다.에 설명된 지침에 따릅니다. https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#worker-configuration-parameters
자세한 지침은 Amazon MSK 개발자 안내서의 사용자 지정 작업자 구성 생성을 참조하세요.
-
서비스 실행 IAM 역할을 생성합니다.
자세한 지침은 IAM 서비스 역할을
참조하세요. -
이전 단계에서 생성된 Amazon MSK 사용자 지정 플러그인, 사용자 지정 작업자 구성 및 서비스 실행 IAM 역할과 샘플 커넥터 구성을
사용하여 커넥터를 생성합니다. 자세한 지침은 Amazon MSK 개발자 안내서의 커넥터 생성을 참조하세요.
아래 구성 파라미터의 값을 해당 값으로 업데이트해야 합니다. 자세한 내용은 커넥터 구성 파라미터를
참조하세요. -
aws.region
-
timestream.schema.s3.bucket.name
-
timestream.ingestion.endpoint
커넥터 생성을 완료하는 데 5~10분이 걸립니다. 파이프라인의 상태가 로 변경되면 파이프라인이 준비됩니다
Running
. -
-
생성된 Kafka 주제에 데이터를 작성하기 위한 메시지의 연속 스트림을 게시합니다.
자세한 지침은 사용 방법을 참조하세요
. -
하나 이상의 쿼리를 실행하여 데이터가에서 MSK Connect Amazon MSK 로 Timestream for LiveAnalytics 테이블로 전송되고 있는지 확인합니다.
자세한 지침은 절차를 쿼리 실행 참조하세요.
추가 리소스
블로그인 Kafka Connect를 사용하여 Kafka 클러스터에서 Timestream for LiveAnalytics 로 실시간 서버리스 데이터 수집