Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Hiperparameter NTM

Mode fokus
Hiperparameter NTM - Amazon SageMaker AI

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Tabel berikut mencantumkan hiperparameter yang dapat Anda atur untuk algoritme Amazon SageMaker AI Neural Topic Model (NTM).

Nama Parameter Deskripsi

feature_dim

Ukuran kosakata dari dataset.

Diperlukan

Nilai yang valid: Bilangan bulat positif (min: 1, maks: 1.000.000)

num_topics

Jumlah topik yang diperlukan.

Diperlukan

Nilai yang valid: Bilangan bulat positif (min: 2, maks: 1000)

batch_norm

Apakah akan menggunakan normalisasi batch selama pelatihan.

Opsional

Nilai yang valid: benar atau salah

Nilai default: false

clip_gradient

Besarnya maksimum untuk setiap komponen gradien.

Opsional

Nilai yang valid: Float (min: 1e-3)

Nilai default: Infinity

encoder_layers

Jumlah lapisan dalam encoder dan ukuran output dari setiap lapisan. Ketika diatur ke auto, algoritma menggunakan dua lapisan ukuran 3 x num_topics dan 2 x num_topics masing-masing.

Opsional

Nilai yang valid: Daftar bilangan bulat positif atau auto yang dipisahkan koma

Nilai default: auto

encoder_layers_activation

Fungsi aktivasi untuk digunakan dalam lapisan encoder.

Opsional

Nilai valid:

Nilai default: sigmoid

epochs

Jumlah maksimum lintasan atas data pelatihan.

Opsional

Nilai yang valid: Bilangan bulat positif (min: 1)

Nilai default: 50

learning_rate

Tingkat pembelajaran untuk pengoptimal.

Opsional

Nilai yang valid: Float (min: 1e-6, maks: 1.0)

Nilai default: 0,001

mini_batch_size

Jumlah contoh di setiap batch mini.

Opsional

Nilai yang valid: Bilangan bulat positif (min: 1, maks: 10000)

Nilai default: 256

num_patience_epochs

Jumlah zaman berturut-turut di mana kriteria penghentian awal dievaluasi. Penghentian awal dipicu ketika perubahan fungsi kerugian turun di bawah yang ditentukan tolerance dalam num_patience_epochs jumlah epoch terakhir. Untuk menonaktifkan penghentian awal, atur num_patience_epochs ke nilai yang lebih besar dariepochs.

Opsional

Nilai yang valid: Bilangan bulat positif (min: 1)

Nilai default: 3

optimizer

Pengoptimal untuk digunakan untuk pelatihan.

Opsional

Nilai valid:

Nilai default: adadelta

rescale_gradient

Faktor penskalaan ulang untuk gradien.

Opsional

Nilai yang valid: float (min: 1e-3, maks: 1.0)

Nilai default: 1.0

sub_sample

Fraksi data pelatihan untuk sampel untuk pelatihan per zaman.

Opsional

Nilai yang valid: Float (min: 0.0, max: 1.0)

Nilai default: 1.0

tolerance

Perubahan relatif maksimum dalam fungsi kerugian. Penghentian awal dipicu ketika perubahan fungsi kerugian turun di bawah nilai ini dalam num_patience_epochs jumlah zaman terakhir.

Opsional

Nilai yang valid: Float (min: 1e-6, maks: 0.1)

Nilai default: 0,001

weight_decay

Koefisien peluruhan berat. Menambahkan regularisasi L2.

Opsional

Nilai yang valid: Float (min: 0.0, max: 1.0)

Nilai default: 0.0

PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.