

Per funzionalità simili a Amazon Timestream for, prendi in considerazione Amazon Timestream LiveAnalytics per InfluxDB. Offre un'acquisizione semplificata dei dati e tempi di risposta alle query di una sola cifra di millisecondi per analisi in tempo reale. [Scopri](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html) di più qui.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Amazon MSK
<a name="MSK"></a>

## Utilizzo di Managed Service for Apache Flink per inviare Amazon MSK dati a Timestream per LiveAnalytics
<a name="msk-aka"></a>

Puoi inviare dati Timestream da Amazon MSK a creando un connettore dati simile al connettore dati di esempio Timestream per Managed Service for Apache Flink. Per ulteriori informazioni, consulta [Servizio gestito da Amazon per Apache Flink](ApacheFlink.md).

## Utilizzo di Kafka Connect per inviare dati Amazon MSK a Timestream per LiveAnalytics
<a name="msk-kafka-connect"></a>

Puoi usare Kafka Connect per importare i dati delle tue serie temporali Amazon MSK direttamente da Timestream for. LiveAnalytics

Abbiamo creato un esempio di Kafka Sink Connector per. Timestream Abbiamo anche creato un esempio di piano di test di Apache JMeter per la pubblicazione di dati su un argomento di Kafka, in modo che i dati possano fluire dall'argomento, attraverso il Timestream Kafka Sink Connector, a un Timestream per tabella. LiveAnalytics Tutti questi artefatti sono disponibili su. GitHub 

**Nota**  
Java 11 è la versione consigliata per l'utilizzo del Timestream Kafka Sink Connector. Se disponi di più versioni di Java, assicurati di esportare Java 11 nella variabile di ambiente JAVA\$1HOME. 

### Creazione di un'applicazione di esempio
<a name="msk-kafka-connect-app"></a>

Per iniziare, segui la procedura riportata di seguito.

1. In Timestream for LiveAnalytics, crea un database con il nome. `kafkastream` 

   Consulta la procedura [Creazione di un database](console_timestream.md#console_timestream.db.using-console) per istruzioni dettagliate.

1. In Timestream for LiveAnalytics, crea una tabella con il nome. `purchase_history`

   Per istruzioni dettagliate, consulta [Creare una tabella](console_timestream.md#console_timestream.table.using-console) la procedura.

1. Segui le istruzioni condivise in per creare quanto segue:, e.
   + Un Amazon MSK cluster
   + Un' Amazon EC2 istanza configurata come macchina client di Kafka Producer 
   + Un argomento di Kafka

   Vedi i [prerequisiti del progetto](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/java/kafka_ingestor#prerequisites) kafka\$1ingestor per istruzioni dettagliate.

1. [Clona il repository Kafka Sink Connector.Timestream](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector) 

   Vedi [Clonazione di un repository su per istruzioni dettagliate](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository). GitHub 

1. Compila il codice del plugin.

    Vedi [Connector - Build from source](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#connector---build-from-source) on GitHub per istruzioni dettagliate.

1. Carica i seguenti file in un bucket S3: seguendo le istruzioni descritte in.
   + Il file jar (kafka-connector-timestream->VERSION<- .jar) dalla directory jar-with-dependencies `/target`
   + Il file di schema json di esempio,. `purchase_history.json`

   Per istruzioni dettagliate, consulta [Caricamento di oggetti](https://docs.aws.amazon.com/AmazonS3/latest/userguide/upload-objects.html) nella *Guida per Amazon S3 l'utente*.

1. Crea due endpoint VPC. Questi endpoint verrebbero utilizzati da MSK Connector per accedere alle risorse utilizzando. AWS PrivateLink
   + Uno per accedere al bucket Amazon S3 
   + Uno per accedere al Timestream per la tabella. LiveAnalytics 

   Consulta [VPC Endpoints per istruzioni dettagliate](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#vpc-endpoints).

1. Crea un plugin personalizzato con il file jar caricato.

   Per istruzioni dettagliate, consulta [Plugins](https://docs.aws.amazon.com/msk/latest/developerguide/msk-connect-plugins.html) nella *Amazon MSK Developer Guide*.

1. Crea una configurazione di worker personalizzata con il contenuto JSON descritto nei [parametri di configurazione del lavoratore](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#worker-configuration-parameters), seguendo le istruzioni descritte in 

   Per istruzioni dettagliate, consulta [Creazione di una configurazione di worker personalizzata](https://docs.aws.amazon.com/msk/latest/developerguide/msk-connect-workers.html#msk-connect-create-custom-worker-config) nella *Amazon MSK Developer Guide*.

1. Crea un IAM ruolo di esecuzione del servizio.

   Vedi [IAM Service Role](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#iam-service-role) per istruzioni dettagliate.

1. Crea un Amazon MSK connettore con il plug-in personalizzato, la configurazione personalizzata del worker e il IAM ruolo di esecuzione del servizio creati nei passaggi precedenti e con la [configurazione del connettore di esempio](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#sample-connector-configuration).

   Per istruzioni dettagliate, consulta [Creazione di un connettore](https://docs.aws.amazon.com/msk/latest/developerguide/msk-connect-connectors.html#mkc-create-connector-intro) nella *Amazon MSK Developer Guide*.

   Assicurati di aggiornare i valori dei seguenti parametri di configurazione con i rispettivi valori. Vedi [Parametri di configurazione del connettore](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#connector-configuration-parameters) per i dettagli.
   + `aws.region`
   + `timestream.schema.s3.bucket.name`
   + `timestream.ingestion.endpoint`

   Il completamento della creazione del connettore richiede 5-10 minuti. La pipeline è pronta quando il suo stato cambia in. `Running`

1. Pubblica un flusso continuo di messaggi per scrivere dati sull'argomento Kafka creato.

   Vedi [Come usarlo per istruzioni](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/java/kafka_ingestor#how-to-use-it) dettagliate.

1. Eseguire una o più interrogazioni per assicurarsi che i dati vengano inviati da MSK Connect Amazon MSK alla tabella Timestream for. LiveAnalytics 

   Consultate la procedura per istruzioni dettagliate[Esecuzione di una query](console_timestream.md#console_timestream.queries.using-console).

#### Risorse aggiuntive
<a name="msk-kafka-connect-more-info"></a>

Il blog, [Real-time serverless data ingestion from your Kafka clusters in Timestream for using Kafka Connect, spiega come configurare una end-to-end pipeline utilizzando Timestream for LiveAnalytics Kafka Sink Connector](https://aws.amazon.com/blogs/database/real-time-serverless-data-ingestion-from-your-kafka-clusters-into-amazon-timestream-using-kafka-connect/), a partire da una macchina client LiveAnalytics Kafka Producer che utilizza il piano di test Apache JMeter per pubblicare migliaia di messaggi di esempio su un argomento Kafka per verificare i record inseriti in un Timestream for table. LiveAnalytics 