Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Mengintegrasikan DynamoDB dengan Amazon Managed Streaming untuk Apache Kafka

Mode fokus
Mengintegrasikan DynamoDB dengan Amazon Managed Streaming untuk Apache Kafka - Amazon DynamoDB

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Amazon Managed Streaming for Apache Kafka (MSKAmazon) memudahkan untuk menelan dan memproses data streaming secara real time dengan layanan Apache Kafka yang dikelola sepenuhnya dan sangat tersedia.

Apache Kafka adalah penyimpanan data terdistribusi yang dioptimalkan untuk menelan dan memproses data streaming secara real-time. Kafka dapat memproses aliran catatan, secara efektif menyimpan aliran catatan dalam urutan pembuatan catatan, dan menerbitkan serta berlangganan aliran catatan.

Karena fitur-fitur ini, Apache Kafka sering digunakan untuk membangun jalur data streaming real-time. Pipeline data andal memproses dan memindahkan data dari satu sistem ke sistem lain dan dapat menjadi bagian penting dari mengadopsi strategi database yang dibangun khusus dengan memfasilitasi penggunaan beberapa database yang masing-masing mendukung kasus penggunaan yang berbeda.

Amazon DynamoDB adalah target umum dalam pipeline data ini untuk mendukung aplikasi yang menggunakan model data nilai kunci atau dokumen dan menginginkan skalabilitas tanpa batas dengan kinerja milidetik satu digit yang konsisten.

Cara kerjanya

Integrasi antara Amazon MSK dan DynamoDB menggunakan fungsi Lambda untuk mengkonsumsi catatan dari Amazon MSK dan menuliskannya ke DynamoDB.

Diagram yang menunjukkan integrasi antara Amazon MSK dan DynamoDB, dan bagaimana Amazon MSK menggunakan fungsi Lambda untuk mengkonsumsi catatan dan menuliskannya ke DynamoDB.

Lambda secara internal melakukan polling untuk pesan baru dari Amazon MSK dan kemudian secara sinkron memanggil fungsi Lambda target. Payload acara fungsi Lambda berisi kumpulan pesan dari Amazon. MSK Untuk integrasi antara Amazon MSK dan DynamoDB, fungsi Lambda menulis pesan ini ke DynamoDB.

Siapkan integrasi antara Amazon MSK dan DynamoDB

catatan

Anda dapat mengunduh sumber daya yang digunakan dalam contoh ini di GitHub repositori berikut.

Langkah-langkah di bawah ini menunjukkan cara menyiapkan contoh integrasi antara Amazon MSK dan Amazon DynamoDB. Contoh ini mewakili data yang dihasilkan oleh perangkat Internet of Things (IoT) dan dicerna ke Amazon. MSK Karena data tertelan ke AmazonMSK, data dapat diintegrasikan dengan layanan analitik atau alat pihak ketiga yang kompatibel dengan Apache Kafka, memungkinkan berbagai kasus penggunaan analitik. Mengintegrasikan DynamoDB juga menyediakan pencarian nilai kunci dari catatan perangkat individual.

Contoh ini akan menunjukkan bagaimana skrip Python menulis data sensor IoT ke Amazon. MSK Kemudian, fungsi Lambda menulis item dengan kunci partisi "deviceid" ke DynamoDB.

CloudFormation Template yang disediakan akan membuat sumber daya berikut: Bucket Amazon S3, AmazonVPC, MSK cluster Amazon, dan AWS CloudShell untuk menguji operasi data.

Untuk menghasilkan data pengujian, buat MSK topik Amazon lalu buat tabel DynamoDB. Anda dapat menggunakan Session Manager dari konsol manajemen untuk masuk ke CloudShell sistem operasi dan menjalankan skrip Python.

Setelah menjalankan CloudFormation template, Anda dapat menyelesaikan membangun arsitektur ini dengan melakukan operasi berikut.

  1. Jalankan CloudFormation template S3bucket.yaml untuk membuat bucket S3. Untuk skrip atau operasi berikutnya, jalankan di Wilayah yang sama. Masukkan ForMSKTestS3 sebagai nama CloudFormation tumpukan.

    Gambar yang menunjukkan layar pembuatan tumpukan CloudFormation konsol.

    Setelah ini selesai, catat output nama bucket S3 di bawah Output. Anda akan membutuhkan nama di Langkah 3.

  2. Unggah ZIP file yang diunduh fromMSK.zip ke bucket S3 yang baru saja Anda buat.

    Gambar menunjukkan di mana Anda dapat mengunggah file di konsol S3.
  3. Jalankan CloudFormation template VPC.yaml untuk membuatVPC, Amazon MSK cluster, dan fungsi Lambda. Pada layar input parameter, masukkan nama bucket S3 yang Anda buat di Langkah 1 di mana ia meminta bucket S3. Atur nama CloudFormation tumpukan keForMSKTestVPC.

    Gambar yang menunjukkan bidang yang perlu Anda isi saat menentukan detail CloudFormation tumpukan.
  4. Siapkan lingkungan untuk menjalankan skrip Python di. CloudShell Anda dapat menggunakan CloudShell pada AWS Management Console. Untuk informasi selengkapnya tentang penggunaan CloudShell, lihat Memulai dengan AWS CloudShell. Setelah memulai CloudShell, buat milik CloudShell yang baru saja VPC Anda buat untuk terhubung ke MSK Cluster Amazon. Buat CloudShell di subnet pribadi. Isi kolom berikut:

    1. Nama - dapat diatur ke nama apa pun. Contohnya adalah MSK- VPC

    2. VPC- pilih MSKTest

    3. Subnet - pilih MSKTestPrivate Subnet () AZ1

    4. SecurityGroup- pilih orMSKSecurityGrup F

    Gambar yang menunjukkan CloudShell lingkungan dengan bidang yang harus Anda tentukan.

    Setelah CloudShell milik Private Subnet dimulai, jalankan perintah berikut:

    pip install boto3 kafka-python aws-msk-iam-sasl-signer-python
  5. Unduh skrip Python dari bucket S3.

    aws s3 cp s3://[YOUR-BUCKET-NAME]/pythonScripts.zip ./ unzip pythonScripts.zip
  6. Periksa konsol manajemen dan atur variabel lingkungan untuk broker URL dan nilai Region dalam skrip Python. Periksa titik akhir broker MSK klaster Amazon di konsol manajemen.

    TODO.
  7. Mengatur variabel lingkungan pada CloudShell. Jika Anda menggunakan US West (Oregon):

    export AWS_REGION="us-west-2" export MSK_BROKER="boot-YOURMSKCLUSTER.c3.kafka-serverless.ap-southeast-1.amazonaws.com:9098"
  8. Jalankan skrip Python berikut.

    Buat MSK topik Amazon:

    python ./createTopic.py

    Buat tabel DynamoDB:

    python ./createTable.py

    Tulis data uji ke MSK topik Amazon:

    python ./kafkaDataGen.py
  9. Periksa CloudWatch metrik untuk sumber daya AmazonMSK, Lambda, dan DynamoDB yang dibuat, dan verifikasi data yang disimpan dalam device_status tabel menggunakan DynamoDB Data Explorer untuk memastikan semua proses berjalan dengan benar. Jika setiap proses dijalankan tanpa kesalahan, Anda dapat memeriksa apakah data pengujian yang ditulis dari CloudShell ke Amazon juga MSK ditulis ke DynamoDB.

    Gambar yang menunjukkan konsol DynamoDB dan bagaimana sekarang ada item yang dikembalikan saat Anda melakukan pemindaian.
  10. Setelah selesai dengan contoh ini, hapus sumber daya yang dibuat dalam tutorial ini. Hapus dua CloudFormation tumpukan: ForMSKTestS3 danForMSKTestVPC. Jika penghapusan tumpukan berhasil diselesaikan, semua sumber daya akan dihapus.

Langkah selanjutnya

catatan

Jika Anda membuat sumber daya saat mengikuti contoh ini, harap ingat untuk menghapusnya untuk menghindari biaya yang tidak terduga.

Integrasi mengidentifikasi arsitektur yang menautkan Amazon MSK dan DynamoDB untuk mengaktifkan data aliran guna mendukung beban kerja. OLTP Dari sini, pencarian yang lebih kompleks dapat diwujudkan dengan menautkan DynamoDB dengan Service. OpenSearch Pertimbangkan EventBridge untuk mengintegrasikan dengan kebutuhan berbasis peristiwa yang lebih kompleks, dan ekstensi seperti Amazon Managed Service untuk Apache Flink untuk throughput yang lebih tinggi dan persyaratan latensi yang lebih rendah.

PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.