

Para recursos semelhantes aos do Amazon Timestream para, considere o Amazon Timestream LiveAnalytics para InfluxDB. Ele oferece ingestão de dados simplificada e tempos de resposta de consulta de um dígito em milissegundos para análises em tempo real. Saiba mais [aqui](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html).

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Amazon MSK
<a name="MSK"></a>

## Usar o serviço gerenciado para o Apache Flink para enviar dados Amazon MSK para o Timestream para LiveAnalytics
<a name="msk-aka"></a>

Você pode enviar dados de Amazon MSK para Timestream criando um conector de dados semelhante ao conector de Timestream dados de amostra do serviço gerenciado para Apache Flink. Consulte [Amazon Managed Service for Apache Flink](ApacheFlink.md) para obter mais informações.

## Usar o Kafka Connect para enviar dados do Amazon MSK para o Timestream para LiveAnalytics
<a name="msk-kafka-connect"></a>

Você pode usar o Kafka Connect para ingerir seus dados de séries temporais Amazon MSK diretamente no Timestream para LiveAnalytics.

Criamos um exemplo de conector de pia Kafka para Timestream. Também criamos um exemplo de plano de teste do Apache JMeter para publicar dados em um tópico do Kafka, para que os dados possam fluir do tópico por meio do conector Timestream Kafka Sink para uma tabela Timestream para LiveAnalytics. Todos esses artefatos estão disponíveis no GitHub. 

**nota**  
O Java 11 é a versão recomendada para usar o Timestream Kafka Sink Connector. Se você tiver várias versões do Java, certifique-se de exportar o Java 11 para sua variável de ambiente JAVA\$1HOME. 

### Como criar um aplicativo de exemplo
<a name="msk-kafka-connect-app"></a>

Para começar a usar, siga o procedimento apresentado a seguir.

1. No Timestream for LiveAnalytics, crie um banco de dados com o nome `kafkastream`. 

   Veja o procedimento [Criar um banco de dados](console_timestream.md#console_timestream.db.using-console) para obter instruções detalhadas.

1. No Timestream para LiveAnalytics, crie uma tabela com o nome `purchase_history`:

   Veja o procedimento [Criar uma tabela](console_timestream.md#console_timestream.table.using-console) para obter instruções detalhadas.

1. Siga as instruções compartilhadas no para criar o seguinte: , e .
   + Um cluster do Amazon MSK
   + Uma instância Amazon EC2 configurada como uma máquina cliente produtora do Kafka 
   + Um tópico do Kafka

   Consulte os [pré-requisitos](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/java/kafka_ingestor#prerequisites) do projeto kafka\$1ingestor para obter instruções detalhadas.

1. Clone o repositório do [TimestreamKafka Sink Connector](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector). 

   Consulte [Clonar um repositório](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository) no GitHub para obter instruções detalhadas.

1. Compile o código do plugin.

    Consulte o [Conector - Crie a partir do código-fonte](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#connector---build-from-source) no GitHub para obter instruções detalhadas.

1. Faça upload dos seguintes arquivos para um bucket do S3: seguindo as instruções descritas em .
   + O arquivo jar (kafka-connector-timestream->version<-jar-with-dependencies.jar) do diretório `/target`
   + O arquivo de amostra do esquema json, `purchase_history.json`.

   Consulte [Carregar objetos](https://docs.aws.amazon.com/AmazonS3/latest/userguide/upload-objects.html) no *Guia do usuário Amazon S3* para obter instruções detalhadas.

1. Criar endpoints da VPC Esses endpoints seriam usados pelo MSK Connector para acessar os recursos usando o AWS PrivateLink.
   + Um para acessar o bucket Amazon S3
   + Um para acessar a tabela Timestream para LiveAnalytics.

   Para obter instruções, consulte [Endpoint da VPC](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#vpc-endpoints).

1. Crie um plug-in personalizado com o arquivo jar enviado.

   Consulte [Plugins](https://docs.aws.amazon.com/msk/latest/developerguide/msk-connect-plugins.html) no *Guia do desenvolvedor Amazon MSK* para obter instruções detalhadas.

1. Crie uma configuração de trabalho personalizada com o conteúdo JSON descrito nos [parâmetros de configuração do trabalhador](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#worker-configuration-parameters), seguindo as instruções descritas em 

   Consulte [Criação de uma configuração de trabalhador personalizada](https://docs.aws.amazon.com/msk/latest/developerguide/msk-connect-workers.html#msk-connect-create-custom-worker-config) no *Guia do desenvolvedorAmazon MSK* para obter instruções detalhadas.

1. Crie uma função de perfil IAM de serviço.

   Consulte o [IAMPerfil de serviço](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#iam-service-role) para obter instruções detalhadas.

1. Crie um conector Amazon MSK com o plug-in personalizado, a configuração personalizada do trabalhador e a IAM função de execução do serviço criada nas etapas anteriores e com o [Exemplo de configuração do conector](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#sample-connector-configuration).

   Consulte [Criação de um conector](https://docs.aws.amazon.com/msk/latest/developerguide/msk-connect-connectors.html#mkc-create-connector-intro) no *Guia do desenvolvedor Amazon MSK* para obter instruções detalhadas.

   Não se esqueça de atualizar os valores dos parâmetros de configuração abaixo com os respectivos valores. Consulte os [parâmetros de configuração do conector](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#connector-configuration-parameters) para obter detalhes.
   + `aws.region`
   + `timestream.schema.s3.bucket.name`
   + `timestream.ingestion.endpoint`

   A criação do conector leva de 5 a 10 minutos para ser concluída. O pipeline estará pronto quando seu status mudar para `Running`.

1. Publique um fluxo contínuo de mensagens para gravar dados no tópico criado pelo Kafka.

   Consulte [Como usá-lo para](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/java/kafka_ingestor#how-to-use-it) obter instruções detalhadas.

1. Execute uma ou mais consultas para garantir que os dados estejam sendo enviados do MSK Connect Amazon MSK para a tabela Timestream para LiveAnalytics. 

   Veja o procedimento [Execute uma consulta](console_timestream.md#console_timestream.queries.using-console) para obter instruções detalhadas.

#### Recursos adicionais
<a name="msk-kafka-connect-more-info"></a>

O blog [Ingestão de dados sem servidor em tempo real de seus clusters do Kafka no Timestream para LiveAnalytics usando o Kafka Connect](https://aws.amazon.com/blogs/database/real-time-serverless-data-ingestion-from-your-kafka-clusters-into-amazon-timestream-using-kafka-connect/) explica a configuração de um pipeline de ponta a ponta usando o conector Kafka Sink do Timestream para LiveAnalytics, começando com uma máquina cliente produtora do Kafka que usa o plano de teste Apache LiveMeter para publicar milhares de mensagens de amostra em um tópico do Kafka Tabela de análise.