Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Ottimizza un modello BlazingText
L'ottimizzazione automatica dei modelli, nota anche come ottimizzazione degli iperparametri, trova la versione migliore di un modello eseguendo molti processi che testano un intervallo di iperparametri sul set di dati. Scegli gli iperparametri ottimizzabili, un intervallo di valori per ciascuno di essi e un parametro obiettivo. Puoi scegliere il parametro obiettivo tra i parametri calcolati dall'algoritmo. L'ottimizzazione automatica del modello ricerca gli iperparametri scelti per trovare la combinazione di valori che restituisce il modello che ottimizza il parametro obiettivo.
Per ulteriori informazioni sull'ottimizzazione del modello, consulta Ottimizzazione automatica del modello con SageMaker.
Metriche calcolate dall'algoritmo BlazingText
L'algoritmo BlazingText Word2Vec (skipgram
cbow
, e le batch_skipgram
modalità) riporta su una singola metrica durante l'allenamento:. train:mean_rho
Questo parametro viene calcolato sui set di dati di similarità per parola WS-353
L'algoritmo di classificazione del BlazingText testo (supervised
modalità), riporta anche su una singola metrica durante l'allenamento: il. validation:accuracy
Quando si ottimizzano i valori degli iperparametri per l'algoritmo di classificazione del testo, utilizza questi parametri come obiettivo.
Nome parametro | Descrizione | Direzione dell'ottimizzazione |
---|---|---|
train:mean_rho |
L'elemento media_rho (il coefficiente di correlazione per la classifica di Spearman) sui set di dati di similarità per parola WS-353 |
Massimizza |
validation:accuracy |
L'accuratezza della classificazione sul set di dati di convalida specificato dall'utente |
Massimizza |
Iperparametri regolabili BlazingText
Iperparametri ottimizzabili per l'algoritmo Word2Vec
Ottimizza un modello Amazon SageMaker BlazingText Word2Vec con i seguenti iperparametri. Gli iperparametri che hanno il maggiore impatto sui parametri obiettivo Word2Vec sono: mode
, learning_rate
, window_size
, vector_dim
e negative_samples
.
Nome parametro | Tipo parametro | Intervalli o valori consigliati |
---|---|---|
batch_size |
|
[8-32] |
epochs |
|
[5-15] |
learning_rate |
|
MinValue: 0,005,: 0,01 MaxValue |
min_count |
|
[0-100] |
mode |
|
[ |
negative_samples |
|
[5-25] |
sampling_threshold |
|
MinValue: 0,001, 0,001 MaxValue |
vector_dim |
|
[32-300] |
window_size |
|
[1-10] |
Iperparametri ottimizzabili per l'algoritmo di classificazione del testo
Ottimizza un modello di classificazione del SageMaker BlazingText testo Amazon con i seguenti iperparametri.
Nome parametro | Tipo parametro | Intervalli o valori consigliati |
---|---|---|
buckets |
|
[1000000-10000000] |
epochs |
|
[5-15] |
learning_rate |
|
MinValue: 0,005, MaxValue: 0,01 |
min_count |
|
[0-100] |
vector_dim |
|
[32-300] |
word_ngrams |
|
[1-3] |