Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Amazon MSK
Utilizzo di Managed Service for Apache Flink per inviare Amazon MSK dati a Timestream per LiveAnalytics
Puoi inviare dati Timestream da Amazon MSK a creando un connettore dati simile al connettore dati di esempio Timestream per Managed Service for Apache Flink. Per ulteriori informazioni, consulta Servizio gestito da Amazon per Apache Flink.
Utilizzo di Kafka Connect per inviare MSK dati Amazon a Timestream per LiveAnalytics
Puoi usare Kafka Connect per importare i dati delle tue serie temporali Amazon MSK direttamente da Timestream for. LiveAnalytics
Abbiamo creato un esempio di Kafka Sink Connector per. Timestream Abbiamo anche creato un esempio di piano di jMeter test Apache per la pubblicazione di dati su un argomento di Kafka, in modo che i dati possano fluire dall'argomento attraverso il Timestream Kafka Sink Connector, a un Timestream per tabella. LiveAnalytics Tutti questi artefatti sono disponibili su. GitHub
Nota
Java 11 è la versione consigliata per l'utilizzo del Timestream Kafka Sink Connector. Se disponi di più versioni di Java, assicurati di esportare Java 11 nella variabile di ambiente _. JAVA HOME
Creazione di un'applicazione di esempio
Per iniziare, segui la procedura riportata di seguito.
-
In Timestream for LiveAnalytics, crea un database con il nome.
kafkastream
Consulta la procedura Creazione di un database per istruzioni dettagliate.
-
In Timestream for LiveAnalytics, crea una tabella con il nome.
purchase_history
Per istruzioni dettagliate, consulta Creare una tabella la procedura.
-
Segui le istruzioni condivise in per creare quanto segue:, e.
Un Amazon MSK cluster
Un' Amazon EC2 istanza configurata come macchina client di Kafka Producer
Un argomento di Kafka
Consulta i prerequisiti del progetto
kafka_ingestor per istruzioni dettagliate. -
Clona il repository Kafka Sink Connector.Timestream
Vedi Clonazione di un repository su per istruzioni dettagliate
. GitHub -
Compila il codice del plugin.
Vedi Connector - Build from source
on GitHub per istruzioni dettagliate. -
Carica i seguenti file in un bucket S3: seguendo le istruzioni descritte in.
-
Il file jar (kafka-connector-timestream-> VERSION <- jar-with-dependencies .jar) dalla directory
/target
-
Il file di schema json di esempio,.
purchase_history.json
Per istruzioni dettagliate, consulta Caricamento di oggetti nella Guida per Amazon S3 l'utente.
-
-
Crea due VPC endpoint. Questi endpoint verrebbero utilizzati dal MSK Connettore per accedere alle risorse utilizzando. AWS PrivateLink
-
Uno per accedere al bucket Amazon S3
-
Uno per accedere al Timestream per la tabella. LiveAnalytics
-
-
Crea un plugin personalizzato con il file jar caricato.
Per istruzioni dettagliate, consulta Plugins nella Amazon MSK Developer Guide.
-
Crea una configurazione di worker personalizzata con il JSON contenuto descritto nei parametri di configurazione del lavoratore
, seguendo le istruzioni descritte in Per istruzioni dettagliate, consulta Creazione di una configurazione di worker personalizzata nella Amazon MSK Developer Guide.
-
Crea un IAM ruolo di esecuzione del servizio.
Vedi IAM Service Role
per istruzioni dettagliate. -
Crea un Amazon MSK connettore con il plug-in personalizzato, la configurazione personalizzata del worker e il IAM ruolo di esecuzione del servizio creati nei passaggi precedenti e con la configurazione del connettore di esempio
. Per istruzioni dettagliate, consulta Creazione di un connettore nella Amazon MSK Developer Guide.
Assicurati di aggiornare i valori dei seguenti parametri di configurazione con i rispettivi valori. Vedi Parametri di configurazione del connettore
per i dettagli. -
aws.region
-
timestream.schema.s3.bucket.name
-
timestream.ingestion.endpoint
Il completamento della creazione del connettore richiede 5-10 minuti. La pipeline è pronta quando il suo stato cambia in.
Running
-
-
Pubblica un flusso continuo di messaggi per scrivere dati sull'argomento Kafka creato.
Vedi Come usarlo per istruzioni
dettagliate. -
Esegui una o più query per assicurarti che i dati vengano inviati da MSK Connect Amazon MSK to the Timestream for table. LiveAnalytics
Consulta la procedura Esecuzione di una query per istruzioni dettagliate.
Risorse aggiuntive
Il blog, Real-time serverless data ingestion from your Kafka clusters in Timestream for using Kafka Connect, spiega come configurare una end-to-end pipeline utilizzando Timestream for LiveAnalytics Kafka Sink Connector