

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# BlazingText Hiperparameter
<a name="blazingtext_hyperparameters"></a>

Saat Anda memulai pekerjaan pelatihan dengan `CreateTrainingJob` permintaan, Anda menentukan algoritma pelatihan. Anda juga dapat menentukan hyperparameter khusus algoritme sebagai peta. string-to-string Hiperparameter untuk BlazingText algoritme bergantung pada mode mana yang Anda gunakan: Word2Vec (tanpa pengawasan) dan Klasifikasi Teks (diawasi).

## Hyperparameter Word2Vec
<a name="blazingtext_hyperparameters_word2vec"></a>

Tabel berikut mencantumkan hyperparameters untuk algoritma pelatihan BlazingText Word2Vec yang disediakan oleh Amazon AI. SageMaker 


| Nama Parameter | Deskripsi | 
| --- | --- | 
| mode |  Arsitektur Word2vec digunakan untuk pelatihan. **Diperlukan** Nilai valid: `batch_skipgram`, `skipgram`, atau `cbow`  | 
| batch\$1size |  Ukuran setiap batch saat `mode` diatur ke`batch_skipgram`. Setel ke angka antara 10 dan 20. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 11  | 
| buckets |  Jumlah bucket hash yang digunakan untuk subkata. **Opsional** Nilai yang valid: bilangan bulat positif Nilai default: 2000000  | 
| epochs |  Jumlah lintasan lengkap melalui data pelatihan. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 5  | 
| evaluation |  Apakah model terlatih dievaluasi menggunakan Tes [WordSimilarity-353](http://www.gabrilovich.com/resources/data/wordsim353/wordsim353.html). **Opsional** Nilai yang valid: (Boolean) `True` atau `False` Nilai default: `True`  | 
| learning\$1rate |  Ukuran langkah yang digunakan untuk pembaruan parameter. **Opsional** Nilai yang valid: Float positif Nilai default: 0,05  | 
| min\$1char |  Jumlah minimum karakter yang digunakan untuk subkata/karakter n-gram. **Opsional** Nilai yang valid: bilangan bulat positif Nilai default: 3  | 
| min\$1count |  Kata-kata yang muncul kurang dari `min_count` kali dibuang. **Opsional** Nilai yang valid: Bilangan bulat non-negatif Nilai default: 5  | 
| max\$1char |  Jumlah maksimum karakter yang akan digunakan untuk subkata/karakter n-gram **Opsional** Nilai yang valid: bilangan bulat positif Nilai default: 6  | 
| negative\$1samples |  Jumlah sampel negatif untuk strategi berbagi sampel negatif. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 5  | 
| sampling\$1threshold |  Ambang batas untuk terjadinya kata-kata. Kata-kata yang muncul dengan frekuensi lebih tinggi dalam data pelatihan diambil sampelnya secara acak. **Opsional** Nilai yang valid: Fraksi positif. Rentang yang disarankan adalah (0, 1e-3] Nilai default: 0,0001  | 
| subwords |  Apakah akan mempelajari penyematan subkata pada tidak. **Opsional** Nilai yang valid: (Boolean) `True` atau `False` Nilai default: `False`  | 
| vector\$1dim |  Dimensi kata vektor yang dipelajari algoritma. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 100  | 
| window\$1size |  Ukuran jendela konteks. Jendela konteks adalah jumlah kata yang mengelilingi kata target yang digunakan untuk pelatihan. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 5  | 

## Klasifikasi Teks Hyperparameters
<a name="blazingtext_hyperparameters_text_class"></a>

Tabel berikut mencantumkan hyperparameters untuk algoritma pelatihan Klasifikasi Teks yang disediakan oleh Amazon SageMaker AI.

**catatan**  
Meskipun beberapa parameter umum antara mode Klasifikasi Teks dan Word2Vec, mereka mungkin memiliki arti yang berbeda tergantung pada konteksnya.


| Nama Parameter | Deskripsi | 
| --- | --- | 
| mode |  Mode pelatihan. **Diperlukan** Nilai yang valid: `supervised`  | 
| buckets |  Jumlah ember hash yang digunakan untuk kata n-gram. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 2000000  | 
| early\$1stopping |  Apakah akan menghentikan pelatihan jika akurasi validasi tidak membaik setelah `patience` sejumlah zaman. Perhatikan bahwa saluran validasi diperlukan jika penghentian awal digunakan. **Opsional** Nilai yang valid: (Boolean) `True` atau `False` Nilai default: `False`  | 
| epochs |  Jumlah maksimum lintasan lengkap melalui data pelatihan. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 5  | 
| learning\$1rate |  Ukuran langkah yang digunakan untuk pembaruan parameter. **Opsional** Nilai yang valid: Float positif Nilai default: 0,05  | 
| min\$1count |  Kata-kata yang muncul kurang dari `min_count` kali dibuang. **Opsional** Nilai yang valid: Bilangan bulat non-negatif Nilai default: 5  | 
| min\$1epochs |  Jumlah minimum zaman untuk dilatih sebelum logika penghentian awal dipanggil. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 5  | 
| patience |  Jumlah epoch yang harus menunggu sebelum menerapkan penghentian awal ketika tidak ada kemajuan yang dibuat pada set validasi. Digunakan hanya ketika `early_stopping` itu`True`. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 4  | 
| vector\$1dim |  Dimensi lapisan embedding. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 100  | 
| word\$1ngrams |  Jumlah fitur kata n-gram yang digunakan. **Opsional** Nilai yang valid: Bilangan bulat positif Nilai default: 2  | 