Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Solusi untuk memantau aplikasi Kafka dengan Grafana Terkelola Amazon

Mode fokus
Solusi untuk memantau aplikasi Kafka dengan Grafana Terkelola Amazon - Amazon Managed Grafana

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Aplikasi yang dibangun di atas Apache Kafka memiliki kebutuhan pemantauan khusus. Halaman ini menjelaskan template yang menyediakan solusi untuk memantau aplikasi Kafka yang berjalan di Java Virtual Machines di kluster Amazon EKS Anda. Solusinya dapat diinstal menggunakan AWS Cloud Development Kit (AWS CDK).

catatan

Solusi ini tidak mendukung pemantauan Amazon Managed Streaming untuk Apache Kafka aplikasi. Untuk informasi tentang pemantauan aplikasi MSK Amazon, lihat Memantau klaster MSK Amazon di Panduan Pengembang Amazon Managed Streaming for Apache Kafka.

Solusi ini mengkonfigurasi:

  • Layanan Terkelola Amazon Anda untuk ruang kerja Prometheus untuk menyimpan metrik Kafka dan Java Virtual Machine (JVM) dari kluster Amazon EKS Anda.

  • Mengumpulkan metrik Kafka dan JVM tertentu menggunakan CloudWatch agen, serta add-on agen. CloudWatch Metrik dikonfigurasi untuk dikirim ke Layanan Terkelola Amazon untuk ruang kerja Prometheus.

  • Ruang kerja Grafana Terkelola Amazon Anda untuk menarik metrik tersebut, dan membuat dasbor untuk membantu Anda memantau klaster Anda.

catatan

Solusi ini menyediakan metrik JVM dan Kafka untuk aplikasi Anda yang berjalan di Amazon EKS, tetapi tidak menyertakan metrik Amazon EKS. Anda dapat menggunakan solusi Observability untuk memantau Amazon EKS guna melihat metrik dan peringatan untuk klaster Amazon EKS Anda.

Tentang solusi ini

Solusi ini mengonfigurasi ruang kerja Grafana Terkelola Amazon untuk menyediakan metrik untuk aplikasi Apache Kafka Anda. Metrik digunakan untuk menghasilkan dasbor yang membantu Anda mengoperasikan aplikasi Anda secara lebih efektif dengan memberikan wawasan tentang kinerja dan beban kerja aplikasi Kafka.

Gambar berikut menunjukkan contoh salah satu dasbor yang dibuat oleh solusi ini.

Gambar yang menunjukkan contoh folder dasbor Grafana yang dibuat menggunakan solusi ini.

Metrik dikikis dengan interval gesekan 1 menit. Dasbor menampilkan metrik yang dikumpulkan menjadi 1 menit, 5 menit, atau lebih, berdasarkan metrik tertentu.

Untuk daftar metrik yang dilacak oleh solusi ini, lihat. Daftar metrik yang dilacak

Biaya

Solusi ini membuat dan menggunakan sumber daya di ruang kerja Anda. Anda akan dikenakan biaya untuk penggunaan standar sumber daya yang dibuat, termasuk:

  • Akses ruang kerja Grafana yang Dikelola Amazon oleh pengguna. Untuk informasi selengkapnya tentang harga, lihat harga Grafana Terkelola Amazon.

  • Layanan Terkelola Amazon untuk konsumsi dan penyimpanan metrik Prometheus, dan analisis metrik (pemrosesan sampel kueri). Jumlah metrik yang digunakan oleh solusi ini bergantung pada konfigurasi dan penggunaan aplikasi Anda.

    Anda dapat melihat metrik konsumsi dan penyimpanan di Layanan Terkelola Amazon untuk Prometheus menggunakan Untuk informasi CloudWatch selengkapnya, lihat metrik CloudWatchdi Panduan Pengguna Layanan Terkelola Amazon untuk Prometheus.

    Anda dapat memperkirakan biaya menggunakan kalkulator harga di halaman harga Amazon Managed Service for Prometheus. Jumlah metrik akan tergantung pada jumlah node di cluster Anda, dan metrik yang dihasilkan aplikasi Anda.

  • Biaya jaringan. Anda mungkin dikenakan biaya AWS jaringan standar untuk lintas zona ketersediaan, Wilayah, atau lalu lintas lainnya.

Kalkulator harga, tersedia dari halaman harga untuk setiap produk, dapat membantu Anda memahami potensi biaya untuk solusi Anda. Informasi berikut dapat membantu mendapatkan biaya dasar, untuk solusi yang berjalan di zona ketersediaan yang sama dengan cluster Amazon EKS.

Produk Kalkulator metrik Nilai

Layanan Terkelola Amazon untuk Prometheus

Seri aktif

95 (per pod Kafka)

Interval Pengumpulan Rata-Rata

60 (detik)

Amazon Managed Grafana

Jumlah editor/administrator aktif

1 (atau lebih, berdasarkan pengguna Anda)

Angka-angka ini adalah angka dasar untuk solusi yang menjalankan Kafka di Amazon EKS. Ini akan memberi Anda perkiraan biaya dasar. Saat Anda menambahkan pod Kafka ke aplikasi Anda, biayanya akan bertambah, seperti yang ditunjukkan. Biaya ini mengabaikan biaya penggunaan jaringan, yang akan bervariasi berdasarkan apakah ruang kerja Grafana yang Dikelola Amazon, Layanan Terkelola Amazon untuk ruang kerja Prometheus, dan kluster Amazon EKS berada di zona ketersediaan yang sama, dan VPN. Wilayah AWS

Prasyarat

Solusi ini mengharuskan Anda melakukan hal berikut sebelum menggunakan solusinya.

  1. Anda harus memiliki atau membuat klaster Amazon Elastic Kubernetes Service yang ingin Anda pantau, dan cluster harus memiliki setidaknya satu node. Cluster harus memiliki akses endpoint server API yang disetel untuk menyertakan akses pribadi (juga dapat mengizinkan akses publik).

    Mode otentikasi harus menyertakan akses API (dapat diatur ke salah satu API atauAPI_AND_CONFIG_MAP). Hal ini memungkinkan penerapan solusi untuk menggunakan entri akses.

    Berikut ini harus diinstal di cluster (true secara default saat membuat cluster melalui konsol, tetapi harus ditambahkan jika Anda membuat cluster menggunakan AWS API atau AWS CLI): Amazon EKS Pod Identity Agent, AWS CNI, CoreDNS, Kube-proxy dan Amazon EBS CSI Driver AddOns (Driver Amazon EBS CSI secara teknis tidak diperlukan untuk solusi, tetapi diperlukan untuk sebagian AddOn besar aplikasi Kafka).

    Simpan nama Cluster untuk menentukan nanti. Ini dapat ditemukan di detail cluster di konsol Amazon EKS.

    catatan

    Untuk detail tentang cara membuat klaster Amazon EKS, lihat Memulai Amazon EKS.

  2. Anda harus menjalankan aplikasi Apache Kafka di Java Virtual Machines di kluster Amazon EKS Anda.

  3. Anda harus membuat Layanan Terkelola Amazon untuk ruang kerja Prometheus sama Akun AWS dengan kluster Amazon EKS Anda. Untuk detailnya, lihat Membuat ruang kerja di Amazon Managed Service for Prometheus User Guide.

    Simpan Layanan Terkelola Amazon untuk ARN ruang kerja Prometheus untuk ditentukan nanti.

  4. Anda harus membuat ruang kerja Grafana Terkelola Amazon dengan Grafana versi 9 atau yang lebih baru, sama dengan cluster Amazon EKS Wilayah AWS Anda. Untuk detail tentang membuat ruang kerja baru, lihatBuat ruang kerja Grafana yang Dikelola Amazon.

    Peran ruang kerja harus memiliki izin untuk mengakses Amazon Managed Service untuk Prometheus dan Amazon. CloudWatch APIs Cara termudah untuk melakukannya adalah dengan menggunakan izin yang dikelola Layanan dan pilih Layanan Terkelola Amazon untuk Prometheus dan. CloudWatch Anda juga dapat menambahkan AmazonGrafanaCloudWatchAccesskebijakan AmazonPrometheusQueryAccessdan kebijakan secara manual ke peran IAM ruang kerja Anda.

    Simpan ID ruang kerja Grafana Terkelola Amazon dan titik akhir untuk ditentukan nanti. ID ada dalam bentukg-123example. ID dan titik akhir dapat ditemukan di konsol Grafana Terkelola Amazon. Endpoint adalah URL untuk ruang kerja, dan menyertakan ID. Misalnya, https://g-123example.grafana-workspace.<region>.amazonaws.com/.

catatan

Meskipun tidak sepenuhnya diperlukan untuk menyiapkan solusi, Anda harus menyiapkan autentikasi pengguna di ruang kerja Grafana Terkelola Amazon sebelum pengguna dapat mengakses dasbor yang dibuat. Untuk informasi selengkapnya, lihat Mengautentikasi pengguna di ruang kerja Grafana Terkelola Amazon.

Menggunakan solusi ini

Solusi ini mengonfigurasi AWS infrastruktur untuk mendukung metrik pelaporan dan pemantauan dari aplikasi Kafka yang berjalan di klaster Amazon EKS. Anda dapat menginstalnya menggunakan AWS Cloud Development Kit (AWS CDK).

catatan

Langkah-langkah di sini mengasumsikan bahwa Anda memiliki lingkungan dengan AWS CLI, dan AWS CDK, dan keduanya Node.js dan NPM diinstal. Anda akan menggunakan make dan brew menyederhanakan build dan tindakan umum lainnya.

Untuk menggunakan solusi ini untuk memantau cluster Amazon EKS dengan AWS CDK
  1. Pastikan Anda telah menyelesaikan semua langkah prasyarat.

  2. Unduh semua file untuk solusi dari Amazon S3. File-file tersebut berada dis3://aws-observability-solutions/Kafka_EKS/OSS/CDK/v1.0.0/iac, dan Anda dapat mengunduhnya dengan perintah Amazon S3 berikut. Jalankan perintah ini dari folder di lingkungan baris perintah Anda.

    aws s3 sync s3://aws-observability-solutions/Kafka_EKS/OSS/CDK/v1.0.0/iac/ .

    Anda tidak perlu memodifikasi file-file ini.

  3. Di lingkungan baris perintah Anda (dari folder tempat Anda mengunduh file solusi), jalankan perintah berikut.

    Siapkan variabel lingkungan yang dibutuhkan. GantiREGION,AMG_ENDPOINT,EKS_CLUSTER, dan AMP_ARN dengan Wilayah AWS, titik akhir ruang kerja Grafana yang Dikelola Amazon (di formulir)http://g-123example.grafana-workspace.us-east-1.amazonaws.com, nama klaster Amazon EKS, dan Layanan Terkelola Amazon untuk ARN ruang kerja Prometheus.

    export AWS_REGION=REGION export AMG_ENDPOINT=AMG_ENDPOINT export EKS_CLUSTER_NAME=EKS_CLUSTER export AMP_WS_ARN=AMP_ARN
  4. Anda harus membuat anotasi yang dapat digunakan oleh penerapan. Anda dapat memilih untuk membuat anotasi namespace, deployment, statefulset, daemonset, atau pod Anda secara langsung. Solusi Kafka membutuhkan lima anotasi. Anda akan menggunakan kubectl anotasi sumber daya Anda dengan perintah berikut:

    kubectl annotate <resource-type> <resource-value> instrumentation.opentelemetry.io/inject-java=true kubectl annotate <resource-type> <resource-value> cloudwatch.aws.amazon.com/inject-jmx-jvm=true kubectl annotate <resource-type> <resource-value> cloudwatch.aws.amazon.com/inject-jmx-kafka=true kubectl annotate <resource-type> <resource-value> cloudwatch.aws.amazon.com/inject-jmx-kafka-producer=true kubectl annotate <resource-type> <resource-value> cloudwatch.aws.amazon.com/inject-jmx-kafka-consumer=true

    Ganti <resource-type> dan <resource-value> dengan nilai yang benar untuk sistem Anda. Misalnya, untuk membuat anotasi foo penerapan Anda, perintah pertama Anda adalah:

    kubectl annotate deployment foo instrumentation.opentelemetry.io/inject-java=true
  5. Buat token akun layanan dengan akses ADMIN untuk memanggil Grafana HTTP. APIs Lihat perinciannya di Gunakan akun layanan untuk mengautentikasi dengan Grafana HTTP APIs. Anda dapat menggunakan perintah berikut untuk membuat token. AWS CLI Anda harus mengganti GRAFANA_ID dengan ID ruang kerja Grafana Anda (itu akan dalam formulir). g-123example Kunci ini akan kedaluwarsa setelah 7.200 detik, atau 2 jam. Anda dapat mengubah waktu (seconds-to-live), jika perlu. Penyebaran memakan waktu kurang dari satu jam.

    # creates a new service account (optional: you can use an existing account) GRAFANA_SA_ID=$(aws grafana create-workspace-service-account \ --workspace-id GRAFANA_ID \ --grafana-role ADMIN \ --name grafana-operator-key \ --query 'id' \ --output text) # creates a new token for calling APIs export AMG_API_KEY=$(aws grafana create-workspace-service-account-token \ --workspace-id $managed_grafana_workspace_id \ --name "grafana-operator-key-$(date +%s)" \ --seconds-to-live 7200 \ --service-account-id $GRAFANA_SA_ID \ --query 'serviceAccountToken.key' \ --output text)

    Buat API Key tersedia AWS CDK dengan menambahkannya AWS Systems Manager dengan perintah berikut. Ganti AWS_REGION dengan Region tempat solusi Anda akan berjalan (dalam formulirus-east-1).

    aws ssm put-parameter --name "/observability-aws-solution-kafka-eks/grafana-api-key" \ --type "SecureString" \ --value $AMG_API_KEY \ --region AWS_REGION \ --overwrite
  6. Jalankan make perintah berikut, yang akan menginstal dependensi lain untuk proyek.

    make deps
  7. Akhirnya, jalankan AWS CDK proyek:

    make build && make pattern aws-observability-solution-kafka-eks-$EKS_CLUSTER_NAME deploy
  8. [Opsional] Setelah pembuatan tumpukan selesai, Anda dapat menggunakan lingkungan yang sama untuk membuat lebih banyak instance tumpukan untuk aplikasi Kafka lain yang berjalan di kluster Amazon EKS di wilayah yang sama, selama Anda menyelesaikan prasyarat lain untuk masing-masing (termasuk Grafana Terkelola Amazon terpisah dan Layanan Terkelola Amazon untuk ruang kerja Prometheus). Anda perlu mendefinisikan ulang export perintah dengan parameter baru.

Saat pembuatan tumpukan selesai, ruang kerja Grafana Terkelola Amazon Anda akan diisi dengan dasbor yang menampilkan metrik untuk aplikasi Anda dan klaster Amazon EKS. Diperlukan beberapa menit agar metrik ditampilkan, saat metrik dikumpulkan.

Daftar metrik yang dilacak

Solusi ini mengumpulkan metrik dari aplikasi Kafka berbasis JVM Anda. Metrik tersebut disimpan di Amazon Managed Service untuk Prometheus, dan kemudian ditampilkan di dasbor Grafana Terkelola Amazon.

Metrik berikut dilacak dengan solusi ini.

  • jvm.classes.loaded

  • jvm.gc.collections.count

  • jvm.gc.collections.berlalu

  • jvm.memory.heap.init

  • jvm.memory.heap.max

  • jvm.memory.heap.used

  • jvm.memory.heap.commit

  • jvm.memory.nonheap.init

  • jvm.memory.nonheap.max

  • jvm.memory.nonheap.used

  • jvm.memory.nonheap.commit

  • jvm.memory.pool.init

  • jvm.memory.pool.max

  • jvm.memory.pool.used

  • jvm.memory.pool.commit

  • jvm.threads.count

  • kafka.message.count

  • kafka.request.count

  • kafka.request.failed

  • kafka.request.time.total

  • kafka.request.time.50p

  • kafka.request.time.99p

  • kafka.request.time.avg

  • kafka.network.io

  • kafka.purgatory.size

  • kafka.partition.count

  • kafka.partition.offline

  • kafka.partition.under_replicated

  • kafka.isr.operation.count

  • kafka.max.lag

  • kafka.controller.active.count

  • kafka.leader.election.rate

  • kafka.unclean.election.rate

  • kafka.request.queue

  • kafka.logs.flush.time.count

  • kafka.logs.flush.time.median

  • kafka.logs.flush.time.99p

  • kafka.consumer.fetch-rate

  • kafka.konsumen. records-lag-max

  • kafka.consumer.total. bytes-consumed-rate

  • kafka.consumer.total. fetch-size-avg

  • kafka.consumer.total. records-consumed-rate

  • kafka.konsumen. bytes-consumed-rate

  • kafka.konsumen. fetch-size-avg

  • kafka.konsumen. records-consumed-rate

  • kafka.produser. io-wait-time-ns-rata-rata

  • kafka.produser. outgoing-byte-rate

  • kafka.produser. request-latency-avg

  • kafka.producer.request-rate

  • kafka.producer.response-rate

  • kafka.producer.byte-rate

  • kafka.producer.comtingkat tekanan

  • kafka.produser. record-error-rate

  • kafka.produser. record-retry-rate

  • kafka.produser. record-send-rate

Pemecahan Masalah

Ada beberapa hal yang dapat menyebabkan penyiapan proyek gagal. Pastikan untuk memeriksa yang berikut ini.

  • Anda harus menyelesaikan semua Prasyarat sebelum menginstal solusi.

  • Cluster harus memiliki setidaknya satu node di dalamnya sebelum mencoba membuat solusi atau mengakses metrik.

  • Cluster Amazon EKS Anda harus menginstalAWS CNI, CoreDNS dan kube-proxy add-on. Jika tidak diinstal, solusinya tidak akan berfungsi dengan benar. Mereka diinstal secara default, saat membuat cluster melalui konsol. Anda mungkin perlu menginstalnya jika cluster dibuat melalui AWS SDK.

  • Waktu penginstalan pod Amazon EKS habis. Ini bisa terjadi jika tidak ada kapasitas node yang cukup tersedia. Ada beberapa penyebab masalah ini, termasuk:

    • Cluster Amazon EKS diinisialisasi dengan Fargate, bukan Amazon. EC2 Proyek ini membutuhkan Amazon EC2.

    • Node tercemar dan karena itu tidak tersedia.

      Anda dapat menggunakan kubectl describe node NODENAME | grep Taints untuk memeriksa noda. Kemudian kubectl taint node NODENAME TAINT_NAME- untuk menghapus noda. Pastikan untuk menyertakan nama - setelah noda.

    • Node telah mencapai batas kapasitas. Dalam hal ini Anda dapat membuat node baru atau meningkatkan kapasitas.

  • Anda tidak melihat dasbor apa pun di Grafana: menggunakan ID ruang kerja Grafana yang salah.

    Jalankan perintah berikut untuk mendapatkan informasi tentang Grafana:

    kubectl describe grafanas external-grafana -n grafana-operator

    Anda dapat memeriksa hasil untuk URL ruang kerja yang benar. Jika bukan yang Anda harapkan, gunakan kembali dengan ID ruang kerja yang benar.

    Spec: External: API Key: Key: GF_SECURITY_ADMIN_APIKEY Name: grafana-admin-credentials URL: https://g-123example.grafana-workspace.aws-region.amazonaws.com Status: Admin URL: https://g-123example.grafana-workspace.aws-region.amazonaws.com Dashboards: ...
  • Anda tidak melihat dasbor apa pun di Grafana: Anda menggunakan kunci API yang kedaluwarsa.

    Untuk mencari kasus ini, Anda harus mendapatkan operator grafana dan memeriksa log untuk kesalahan. Dapatkan nama operator Grafana dengan perintah ini:

    kubectl get pods -n grafana-operator

    Ini akan mengembalikan nama operator, misalnya:

    NAME READY STATUS RESTARTS AGE grafana-operator-1234abcd5678ef90 1/1 Running 0 1h2m

    Gunakan nama operator dalam perintah berikut:

    kubectl logs grafana-operator-1234abcd5678ef90 -n grafana-operator

    Pesan galat seperti berikut ini menunjukkan kunci API yang kedaluwarsa:

    ERROR error reconciling datasource {"controller": "grafanadatasource", "controllerGroup": "grafana.integreatly.org", "controllerKind": "GrafanaDatasource", "GrafanaDatasource": {"name":"grafanadatasource-sample-amp","namespace":"grafana-operator"}, "namespace": "grafana-operator", "name": "grafanadatasource-sample-amp", "reconcileID": "72cfd60c-a255-44a1-bfbd-88b0cbc4f90c", "datasource": "grafanadatasource-sample-amp", "grafana": "external-grafana", "error": "status: 401, body: {\"message\":\"Expired API key\"}\n"} github.com/grafana-operator/grafana-operator/controllers.(*GrafanaDatasourceReconciler).Reconcile

    Dalam hal ini, buat kunci API baru dan terapkan solusinya lagi. Jika masalah berlanjut, Anda dapat memaksa sinkronisasi dengan menggunakan perintah berikut sebelum menerapkan kembali:

    kubectl delete externalsecret/external-secrets-sm -n grafana-operator
  • Parameter SSM tidak ada. Jika Anda melihat kesalahan seperti berikut ini, jalankan cdk bootstrap dan coba lagi.

    Deployment failed: Error: aws-observability-solution-kafka-eks-$EKS_CLUSTER_NAME: SSM parameter /cdk-bootstrap/xxxxxxx/version not found. Has the environment been bootstrapped? Please run 'cdk bootstrap' (see https://docs.aws.amazon.com/cdk/latest/ guide/bootstrapping.html)
PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.