

Untuk kemampuan serupa dengan Amazon Timestream LiveAnalytics, pertimbangkan Amazon Timestream untuk InfluxDB. Ini menawarkan konsumsi data yang disederhanakan dan waktu respons kueri milidetik satu digit untuk analitik waktu nyata. Pelajari lebih lanjut [di sini](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html).

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Amazon MSK
<a name="MSK"></a>

## Menggunakan Managed Service untuk Apache Flink untuk mengirim Amazon MSK data ke Timestream LiveAnalytics
<a name="msk-aka"></a>

Anda dapat mengirim data dari Amazon MSK ke Timestream dengan membuat konektor data yang mirip dengan konektor Timestream data sampel untuk Layanan Terkelola untuk Apache Flink. Lihat [Layanan Terkelola Amazon untuk Apache Flink](ApacheFlink.md) untuk informasi lebih lanjut.

## Menggunakan Kafka Connect untuk mengirim data MSK Amazon ke Timestream LiveAnalytics
<a name="msk-kafka-connect"></a>

Anda dapat menggunakan Kafka Connect untuk menyerap data deret waktu Anda dari Amazon MSK langsung ke Timestream untuk. LiveAnalytics

Kami telah membuat sampel Konektor Sink Kafka untuk Timestream. Kami juga telah membuat contoh rencana uji Apache JMeter untuk menerbitkan data ke topik Kafka, sehingga data dapat mengalir dari topik melalui Konektor Sink Timestream Kafka, ke Timestream untuk tabel. LiveAnalytics Semua artefak ini tersedia di GitHub. 

**catatan**  
Java 11 adalah versi yang direkomendasikan untuk menggunakan Konektor Sink Timestream Kafka. Jika Anda memiliki beberapa versi Java, pastikan Anda mengekspor Java 11 ke variabel lingkungan JAVA\$1HOME Anda. 

### Membuat contoh aplikasi
<a name="msk-kafka-connect-app"></a>

Untuk memulai, ikuti prosedur di bawah ini.

1. Di Timestream for LiveAnalytics, buat database dengan nama`kafkastream`. 

   Lihat prosedur [Buat database](console_timestream.md#console_timestream.db.using-console) untuk instruksi terperinci.

1. Di Timestream for LiveAnalytics, buat tabel dengan nama`purchase_history`.

   Lihat prosedur [Membuat tabel](console_timestream.md#console_timestream.table.using-console) untuk instruksi terperinci.

1. Ikuti petunjuk yang dibagikan untuk membuat yang berikut:, dan.
   + Sebuah Amazon MSK cluster
   + Sebuah Amazon EC2 instance yang dikonfigurasi sebagai mesin klien produsen Kafka 
   + Topik Kafka

   Lihat [prasyarat proyek kafka\$1ingestor](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/java/kafka_ingestor#prerequisites) untuk instruksi terperinci.

1. Kloning repositori [Konektor Timestream Sink Kafka](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector). 

   Lihat [Mengkloning repositori](https://docs.github.com/en/free-pro-team@latest/github/creating-cloning-and-archiving-repositories/cloning-a-repository) GitHub untuk petunjuk terperinci.

1. Kompilasi kode plugin.

    Lihat [Konektor - Bangun dari sumber](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#connector---build-from-source) GitHub untuk instruksi terperinci.

1. Unggah file berikut ke bucket S3: mengikuti petunjuk yang dijelaskan di.
   + File jar (kafka-connector-timestream->VERSION<- jar-with-dependencies .jar) dari direktori `/target`
   + Contoh file skema json,. `purchase_history.json`

   Lihat [Mengunggah objek](https://docs.aws.amazon.com/AmazonS3/latest/userguide/upload-objects.html) di *Panduan Amazon S3 Pengguna* untuk petunjuk terperinci.

1. Buat dua titik akhir VPC. Titik akhir ini akan digunakan oleh Konektor MSK untuk mengakses sumber daya menggunakan. AWS PrivateLink
   + Satu untuk mengakses Amazon S3 ember
   + Satu untuk mengakses Timestream untuk LiveAnalytics tabel.

   Lihat [Titik Akhir VPC](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#vpc-endpoints) untuk petunjuk terperinci.

1. Buat plugin khusus dengan file jar yang diunggah.

   Lihat [Plugin](https://docs.aws.amazon.com/msk/latest/developerguide/msk-connect-plugins.html) di *Panduan Amazon MSK Pengembang* untuk petunjuk terperinci.

1. Buat konfigurasi pekerja kustom dengan konten JSON yang dijelaskan dalam [parameter Konfigurasi Pekerja](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#worker-configuration-parameters). mengikuti petunjuk yang dijelaskan dalam 

   Lihat [Membuat konfigurasi pekerja kustom](https://docs.aws.amazon.com/msk/latest/developerguide/msk-connect-workers.html#msk-connect-create-custom-worker-config) di *Panduan Amazon MSK Pengembang* untuk petunjuk terperinci.

1. Buat IAM peran eksekusi layanan.

   Lihat [Peran IAM Layanan](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#iam-service-role) untuk petunjuk terperinci.

1. Buat Amazon MSK konektor dengan plugin kustom, konfigurasi pekerja kustom, dan IAM peran eksekusi layanan yang dibuat pada langkah sebelumnya dan dengan [Konfigurasi Konektor Sampel](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#sample-connector-configuration).

   Lihat [Membuat konektor](https://docs.aws.amazon.com/msk/latest/developerguide/msk-connect-connectors.html#mkc-create-connector-intro) di *Panduan Amazon MSK Pengembang* untuk petunjuk terperinci.

   Pastikan untuk memperbarui nilai parameter konfigurasi di bawah ini dengan nilai masing-masing. Lihat [parameter Konfigurasi Konektor](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/integrations/kafka_connector#connector-configuration-parameters) untuk detailnya.
   + `aws.region`
   + `timestream.schema.s3.bucket.name`
   + `timestream.ingestion.endpoint`

   Pembuatan konektor membutuhkan waktu 5-10 menit untuk menyelesaikannya. Pipa siap ketika statusnya berubah menjadi`Running`.

1. Publikasikan aliran pesan berkelanjutan untuk menulis data ke topik Kafka yang dibuat.

   Lihat [Cara menggunakannya](https://github.com/awslabs/amazon-timestream-tools/tree/mainline/tools/java/kafka_ingestor#how-to-use-it) untuk instruksi terperinci.

1. Jalankan satu atau beberapa kueri untuk memastikan bahwa data sedang dikirim dari MSK Connect Amazon MSK ke Timestream untuk tabel. LiveAnalytics 

   Lihat prosedur [Jalankankueri](console_timestream.md#console_timestream.queries.using-console) untuk instruksi terperinci.

#### Sumber daya tambahan
<a name="msk-kafka-connect-more-info"></a>

Blog, [Penyerapan data tanpa server real-time dari cluster Kafka Anda ke Timestream untuk menggunakan LiveAnalytics Kafka Connect menjelaskan pengaturan end-to-end pipa menggunakan Timestream untuk Kafka Sink Connector, mulai dari mesin klien produsen LiveAnalytics Kafka yang menggunakan rencana pengujian Apache JMeter untuk menerbitkan ribuan pesan sampel ke topik Kafka untuk memverifikasi catatan yang dicerna](https://aws.amazon.com/blogs/database/real-time-serverless-data-ingestion-from-your-kafka-clusters-into-amazon-timestream-using-kafka-connect/) dalam Timestream untuk tabel. LiveAnalytics 