Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
SUS02-BP01 Menskalakan infrastruktur beban kerja secara dinamis
Gunakan elastisitas cloud dan skalakan infrastruktur Anda secara dinamis untuk menyesuaikan pasokan sumber daya cloud dengan permintaan dan menghindari terjadinya kelebihan penyediaan kapasitas di beban kerja Anda.
Anti-pola umum:
Anda tidak menskalakan infrastruktur Anda dengan beban pengguna.
Anda menskalakan secara manual infrastruktur Anda sepanjang waktu.
Anda membiarkan peningkatan kapasitas setelah terjadi peristiwa penskalaan, bukannya menurunkan kembali skala.
Manfaat menerapkan praktik terbaik ini: Mengkonfigurasi dan menguji elastisitas beban kerja akan Anda membantu dalam mencocokkan pasokan sumber daya cloud secara efisien dengan permintaan dan menghindari terjadinya kelebihan penyediaan kapasitas. Anda dapat memanfaatkan elastisitas di cloud untuk menskalakan kapasitas secara otomatis selama dan setelah terjadi lonjakan permintaan. Hal ini bertujuan untuk memastikan bahwa Anda hanya menggunakan jumlah sumber daya yang benar-benar diperlukan untuk memenuhi persyaratan-persyaratan bisnis Anda.
Tingkat risiko yang terjadi jika praktik terbaik ini tidak diterapkan: Sedang
Panduan implementasi
Cloud menyediakan fleksibilitas untuk memperluas atau mengurangi sumber daya Anda secara dinamis melalui beragam mekanisme untuk memenuhi perubahan-perubahan sesuai dengan permintaan. Menyesuaikan pasokan dengan permintaan secara optimal akan memberikan dampak lingkungan terendah untuk sebuah beban kerja.
Permintaan dapat bersifat tetap atau bervariasi, sehingga akan memerlukan metrik-metrik dan otomatisasi untuk memastikan bahwa manajemen permintaan tersebut tidak akan menyulitkan. Aplikasi dapat diskalakan secara vertikal (naik atau turun) dengan mengubah ukuran instans, secara horizontal (ke dalam atau ke luar) dengan mengubah jumlah instans, atau melakukan kombinasi keduanya.
Anda dapat menggunakan sejumlah pendekatan yang berbeda untuk menyesuaikan pasokan sumber daya dengan permintaan.
-
Pendekatan pelacakan target: Pantau metrik penskalaan Anda dan tingkatkan atau turunkan kapasitas secara otomatis sesuai kebutuhan.
-
Penskalaan prediktif: Lakukan pengurangan skala (scale in) dalam mengantisipasi tren harian dan mingguan.
-
Pendekatan berbasis jadwal: Tetapkan jadwal penskalaan Anda sendiri sesuai dengan perubahan beban yang dapat diprediksi.
-
Penskalaan layanan: Pilih layanan (seperti nirserver) yang secara native menskalakan berdasarkan desain atau menyediakan penskalaan otomatis sebagai fitur.
Identifikasi periode penggunaan rendah atau nol dan skalakan sumber daya untuk menghapus kapasitas berlebih dan meningkatkan efisiensi.
Langkah-langkah implementasi
-
Elastisitas menyesuaikan pasokan sumber daya yang Anda miliki dengan permintaan untuk sumber daya tersebut. Instans, kontainer, dan fungsi menyediakan mekanisme elastisitas, baik dalam kombinasi dengan penskalaan otomatis atau sebagai fitur layanan. AWS menyediakan berbagai mekanisme penskalaan otomatis untuk memastikan bahwa beban kerja dapat diturunkan dengan cepat dan mudah selama periode beban pengguna yang rendah. Berikut ini adalah beberapa contoh mekanisme penskalaan otomatis:
Mekanisme penskalaan otomatis Harus digunakan di mana Gunakan untuk memverifikasi bahwa Anda memiliki jumlah EC2 instans Amazon yang benar yang tersedia untuk menangani pemuatan pengguna untuk aplikasi Anda.
Gunakan untuk secara otomatis menskalakan sumber daya untuk AWS layanan individual di luar AmazonEC2, seperti fungsi Lambda atau layanan Amazon Elastic Container Service ECS (Amazon).
Gunakan untuk menskalakan cluster Kubernetes secara otomatis. AWS
-
Penskalaan sering dibahas terkait dengan layanan komputasi seperti EC2 instans atau fungsi Amazon. AWS Lambda Pertimbangkan konfigurasi layanan non-komputasi seperti unit kapasitas baca dan tulis Amazon DynamoDB
atau serpihan (shard) Amazon Kinesis Data Streams agar sesuai dengan permintaan. -
Pastikan bahwa metrik-metrik untuk melakukan peningkatan atau penurunan skala telah divalidasi terhadap jenis beban kerja yang di-deploy. Jika Anda menerapkan aplikasi transcoding video, CPU pemanfaatan 100% diharapkan dan seharusnya tidak menjadi metrik utama Anda. Anda dapat menggunakan metrik kustom
(seperti pemanfaatan memori) untuk kebijakan penskalaan Anda jika diperlukan. Untuk memilih metrik yang tepat, pertimbangkan panduan berikut untuk AmazonEC2: -
Metrik tersebut harus merupakan metrik pemanfaatan yang valid dan mendeskripsikan tingkat kesibukan suatu instans.
-
Nilai metrik harus meningkatkan atau menurunkan secara proporsional jumlah instance dalam grup Auto Scaling.
-
-
Gunakan penskalaan dinamis alih-alih penskalaan manual untuk grup Auto Scaling Anda. Kami juga menyarankan agar Anda menggunakan kebijakan penskalaan pelacakan target dalam penskalaan dinamis Anda.
-
Pastikan deployment beban kerja dapat menangani peristiwa penambahan skala dan pengurangan skala. Buatlah skenario pengujian untuk peristiwa-peristiwa penambahan skala guna memastikan bahwa beban kerja berperilaku sesuai harapan dan tidak memengaruhi pengalaman pengguna (seperti kehilangan sesi lekat (sticky session)). Anda dapat menggunakan Riwayat aktivitas untuk melakukan verifikasi terhadap aktivitas penskalaan untuk sebuah grup Auto Scaling.
-
Lakukan evaluasi terhadap beban kerja Anda untuk memeriksa pola-pola terprediksi dan secara proaktif skalakan saat Anda mengantisipasi perubahan permintaan yang terencana dan terprediksi. Dengan penskalaan prediktif, Anda dapat menghilangkan kebutuhan untuk menyediakan kapasitas secara berlebih. Untuk detail selengkapnya, lihat Penskalaan Prediktif dengan Auto EC2 Scaling Amazon.
Sumber daya
Dokumen terkait:
Video terkait:
-
AWS Re:invent 2023 - Menskalakan AWS untuk 10 juta pengguna pertama
-
AWS re: Invent 2023 - Arsitektur berkelanjutan: Masa lalu, sekarang, dan masa depan
-
AWS re:invent 2022 - Bangun lingkungan komputasi yang hemat biaya, energi, dan sumber daya
-
AWS re:invent 2022 - Menskalakan wadah dari satu pengguna menjadi jutaan
-
AWS re: invent 2023 - Menskalakan inferensi FM ke ratusan model dengan Amazon SageMaker
Contoh terkait: