Amazon MSK - Amazon Timestream

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon MSK

Managed Service for Apache Flink를 사용하여 Timestream for LiveAnalytics로 Amazon MSK 데이터 전송

Managed Service for Apache Flink의 샘플 데이터 커넥터와 유사한 데이터 커넥터를 구축 Timestream 하여에서 Amazon MSK 로 Timestream 데이터를 전송할 수 있습니다. 자세한 내용은 Amazon Managed Service for Apache Flink 섹션을 참조하세요.

Kafka Connect를 사용하여 Amazon MSK 데이터를 Timestream for LiveAnalytics로 전송

Kafka Connect를 사용하여 시계열 데이터를에서 Timestream for LiveAnalytics로 Amazon MSK 직접 수집할 수 있습니다.

에 대한 샘플 Kafka Sink Connector를 생성했습니다 Timestream. 또한 데이터를 Kafka 주제에 게시하기 위한 샘플 Apache jMeter 테스트 계획을 생성하여 데이터가 Timestream Kafka Sink Connector를 통해 주제에서 Timestream for LiveAnalytics 테이블로 흐를 수 있도록 했습니다. 이러한 모든 아티팩트는 GitHub에서 사용할 수 있습니다.

참고

Java 11은 Timestream Kafka Sink Connector 사용에 권장되는 버전입니다. Java 버전이 여러 개인 경우 Java 11을 JAVA_HOME 환경 변수로 내보내야 합니다.

샘플 애플리케이션 생성

시작하려면 아래 절차를 따르세요.

  1. Timestream for LiveAnalytics에서 이름이 인 데이터베이스를 생성합니다kafkastream.

    자세한 지침은 절차를 참조 데이터베이스 생성하세요.

  2. Timestream for LiveAnalytics에서 이름이 인 테이블을 생성합니다purchase_history.

    자세한 지침은 절차를 테이블 생성 참조하세요.

  3. 에서 공유하는 지침에 따라 , 및를 생성합니다.

    • Amazon MSK 클러스터

    • Kafka 생산자 클라이언트 시스템으로 구성된 Amazon EC2 인스턴스

    • Kafka 주제

    자세한 지침은 kafka_ingestor 프로젝트의 사전 조건을 참조하세요.

  4. Timestream Kafka Sink Connector 리포지토리를 복제합니다.

    자세한 지침은 리포지토리 onWord 복제를 참조하세요. GitHub

  5. 플러그인 코드를 컴파일합니다.

    자세한 지침은 커넥터 - 소스 onWord에서 빌드를 참조하세요. GitHub

  6. 에 설명된 지침에 따라 S3 버킷에 다음 파일을 업로드합니다.

    • /target 디렉터리의 jar 파일(kafka-connector-timestream->VERSION<-jar-with-dependencies.jar)

    • 샘플 json 스키마 파일, purchase_history.json.

    자세한 지침은 Amazon S3 사용 설명서객체 업로드를 참조하세요.

  7. 두 개의 VPC 엔드포인트를 생성합니다. 이러한 엔드포인트는 MSK Connector에서 AWS PrivateLink를 사용하여 리소스에 액세스하는 데 사용됩니다.

    • Amazon S3 버킷에 액세스하는 방법

    • 하나는 Timestream for LiveAnalytics 테이블에 액세스하는 것입니다.

    자세한 지침은 VPC 엔드포인트를 참조하세요.

  8. 업로드된 jar 파일로 사용자 지정 플러그인을 생성합니다.

    자세한 지침은 Amazon MSK 개발자 안내서플러그인을 참조하세요.

  9. 작업자 구성 파라미터에 설명된 JSON 콘텐츠를 사용하여 사용자 지정 작업자 구성을 생성합니다.에 설명된 지침에 따릅니다. https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#worker-configuration-parameters

    자세한 지침은 Amazon MSK 개발자 안내서사용자 지정 작업자 구성 생성을 참조하세요.

  10. 서비스 실행 IAM 역할을 생성합니다.

    자세한 지침은 IAM 서비스 역할을 참조하세요.

  11. 이전 단계에서 생성된 Amazon MSK 사용자 지정 플러그인, 사용자 지정 작업자 구성 및 서비스 실행 IAM 역할과 샘플 커넥터 구성을 사용하여 커넥터를 생성합니다.

    자세한 지침은 Amazon MSK 개발자 안내서커넥터 생성을 참조하세요.

    아래 구성 파라미터의 값을 해당 값으로 업데이트해야 합니다. 자세한 내용은 커넥터 구성 파라미터를 참조하세요.

    • aws.region

    • timestream.schema.s3.bucket.name

    • timestream.ingestion.endpoint

    커넥터 생성을 완료하는 데 5~10분이 걸립니다. 파이프라인의 상태가 로 변경되면 파이프라인이 준비됩니다Running.

  12. 생성된 Kafka 주제에 데이터를 작성하기 위한 메시지의 연속 스트림을 게시합니다.

    자세한 지침은 사용 방법을 참조하세요.

  13. 하나 이상의 쿼리를 실행하여 데이터가에서 MSK Connect Amazon MSK 로 Timestream for LiveAnalytics 테이블로 전송되고 있는지 확인합니다.

    자세한 지침은 절차를 쿼리 실행 참조하세요.

추가 리소스

블로그인 Kafka Connect를 사용하여 Kafka 클러스터에서 Timestream for LiveAnalytics 로 실시간 서버리스 데이터 수집은 Apache end-to-end 테스트 계획을 사용하여 Kafka 주제에 수천 개의 샘플 메시지를 게시하여 Timestream LiveAnalytics jMeter 테이블에서 수집된 레코드를 확인하는 Kafka 생산자 클라이언트 머신부터 시작하여 Timestream LiveAnalytics 파이프라인을 설정하는 방법을 설명합니다.