Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Amazon Nova hiperparameter kustomisasi

Mode fokus
Amazon Nova hiperparameter kustomisasi - Amazon Bedrock

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Bagian Amazon Nova Lite, Amazon Nova Micro, dan Amazon Nova Pro model mendukung tiga hyperparameter berikut untuk kustomisasi model. Untuk informasi selengkapnya, lihat Sesuaikan model Anda untuk meningkatkan kinerjanya untuk kasus penggunaan Anda.

Untuk informasi tentang fine tuning model Amazon Nova, lihat Fine-tuning Amazon Nova model.

Hyperparameter (konsol) Hiperparameter (API) Definisi Tipe Minimum Maksimum Default
Zaman EpochCount Jumlah iterasi melalui seluruh dataset pelatihan integer 1 5 2
Tingkat pembelajaran LearningRate Tingkat di mana parameter model diperbarui setelah setiap batch float 1.00E-6 1.00E-4 1.00E-5
Langkah-langkah pemanasan tingkat pembelajaran learningRateWarmupLangkah-Langkah Jumlah iterasi di mana tingkat pembelajaran secara bertahap ditingkatkan ke tingkat yang ditentukan integer 0 100 10

Nomor epoch default adalah 2, yang berfungsi untuk sebagian besar kasus. Secara umum, kumpulan data yang lebih besar membutuhkan lebih sedikit zaman untuk bertemu, sementara kumpulan data yang lebih kecil membutuhkan lebih banyak zaman untuk bertemu. Konvergensi yang lebih cepat juga dapat dicapai dengan meningkatkan tingkat pembelajaran, tetapi ini kurang diinginkan karena dapat menyebabkan ketidakstabilan pelatihan pada konvergensi. Kami merekomendasikan memulai dengan hyperparameter default, yang didasarkan pada penilaian kami di seluruh tugas dengan kompleksitas dan ukuran data yang berbeda.

Tingkat pembelajaran secara bertahap akan meningkat ke nilai yang ditetapkan selama pemanasan. Oleh karena itu, kami menyarankan Anda menghindari nilai pemanasan yang besar ketika sampel pelatihan kecil karena tingkat pembelajaran mungkin tidak akan pernah mencapai nilai yang ditetapkan selama proses pelatihan. Kami merekomendasikan pengaturan langkah pemanasan dengan membagi ukuran dataset dengan 640 untuk Amazon Nova Micro, 160 untuk Amazon Nova Lite, dan 320 untuk Amazon Nova Pro.

PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.