Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Pembersihan sumber daya
Karena Anda membayar untuk menggunakan aliran data Kinesis, pastikan Anda menghapusnya dan tabel Amazon DynamoDB yang sesuai ketika Anda selesai dengannya. Biaya nominal terjadi pada aliran aktif bahkan ketika Anda tidak mengirim dan mendapatkan catatan. Ini karena aliran aktif menggunakan sumber daya dengan terus “mendengarkan” catatan masuk dan permintaan untuk mendapatkan catatan.
Untuk menghapus aliran dan tabel
-
Matikan produsen dan konsumen yang mungkin masih Anda jalankan.
Buka konsol Kinesis di /kinesis. https://console.aws.amazon.com
-
Pilih aliran yang Anda buat untuk aplikasi ini (
StockTradeStream
). -
Pilih Hapus Stream.
Buka konsol DynamoDB di. https://console.aws.amazon.com/dynamodb/
-
Hapus tabel
StockTradesProcessor
.
Ringkasan
Memproses sejumlah besar data dalam waktu dekat tidak memerlukan penulisan kode yang rumit atau mengembangkan infrastruktur yang sangat besar. Ini sama dasarnya dengan menulis logika untuk memproses sejumlah kecil data (seperti menulisprocessRecord(Record)
) tetapi menggunakan Kinesis Data Streams untuk skala sehingga berfungsi untuk sejumlah besar data streaming. Anda tidak perlu khawatir tentang bagaimana skala pemrosesan Anda karena Kinesis Data Streams menanganinya untuk Anda. Yang harus Anda lakukan adalah mengirim catatan streaming Anda ke Kinesis Data Streams dan menulis logika untuk memproses setiap rekaman baru yang diterima.
Berikut adalah beberapa peningkatan potensial untuk aplikasi ini.
- Agregat di semua pecahan
-
Saat ini, Anda mendapatkan statistik yang dihasilkan dari agregasi catatan data yang diterima oleh satu pekerja dari satu pecahan. (Pecahan tidak dapat diproses oleh lebih dari satu pekerja dalam satu aplikasi pada saat yang bersamaan.) Tentu saja, ketika Anda menskalakan dan memiliki lebih dari satu pecahan, Anda mungkin ingin menggabungkan semua pecahan. Anda dapat melakukan ini dengan memiliki arsitektur pipeline di mana output dari setiap pekerja dimasukkan ke aliran lain dengan pecahan tunggal, yang diproses oleh pekerja yang mengumpulkan output dari tahap pertama. Karena data dari tahap pertama terbatas (satu sampel per menit per pecahan), maka akan dengan mudah ditangani oleh satu pecahan.
- Pemrosesan skala
-
Ketika aliran meningkat untuk memiliki banyak pecahan (karena banyak produsen mengirim data), cara untuk menskalakan pemrosesan adalah dengan menambahkan lebih banyak pekerja. Anda dapat menjalankan pekerja di EC2 instans Amazon dan menggunakan grup Auto Scaling.
- Gunakan konektor ke Amazon S3/DynamoDB/Amazon Redshift/Storm
-
Karena aliran terus diproses, outputnya dapat dikirim ke tujuan lain. AWS menyediakan konektor
untuk mengintegrasikan Kinesis Data Streams AWS dengan layanan lain dan alat pihak ketiga.
Langkah selanjutnya
-
Untuk informasi selengkapnya tentang penggunaan operasi Kinesis API Data StreamsKembangkan produsen menggunakan Amazon Kinesis API Data Streams dengan AWS SDK for Java, Mengembangkan konsumen throughput bersama dengan AWS SDK for Java lihat,, dan. Membuat dan mengelola aliran data Kinesis
-
Untuk informasi lebih lanjut tentang Perpustakaan Klien Kinesis, lihat. Mengembangkan KCL 1.x konsumen
-
Untuk informasi selengkapnya tentang cara mengoptimalkan aplikasi Anda, lihatOptimalkan konsumen Amazon Kinesis Data Streams.