Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Ottimizza un modello Sequence-to-Sequence
L'ottimizzazione automatica dei modelli, nota anche come ottimizzazione degli iperparametri, trova la versione migliore di un modello eseguendo molti processi che testano un intervallo di iperparametri sul set di dati. Scegli gli iperparametri ottimizzabili, un intervallo di valori per ciascuno di essi e un parametro obiettivo. Puoi scegliere il parametro obiettivo tra i parametri calcolati dall'algoritmo. L'ottimizzazione automatica del modello ricerca gli iperparametri scelti per trovare la combinazione di valori che restituisce il modello che ottimizza il parametro obiettivo.
Per ulteriori informazioni sull'ottimizzazione del modello, consulta Ottimizzazione automatica del modello con SageMaker.
Metriche calcolate dall'algoritmo Sequence-to-Sequence
L'algoritmo sequence to sequence restituisce tre parametri che vengono calcolati durante l’addestramento. Scegline uno come obiettivo da ottimizzare durante l'ottimizzazione dei valori degli iperparametri.
Nome parametro | Descrizione | Direzione dell'ottimizzazione |
---|---|---|
validation:accuracy |
Accuratezza calcolata su un set di dati di convalida. |
Massimizza |
validation:bleu |
Punteggio Bleu |
Massimizza |
validation:perplexity |
Perplexity |
Minimizza |
Sequence-to-SequenceIperparametri regolabili
È possibile ottimizzare i seguenti iperparametri per l'algoritmo SageMaker Sequence to Sequence. Gli iperparametri che hanno il maggiore impatto sui parametri obiettivo sequence to sequence sono: batch_size
, optimizer_type
, learning_rate
, num_layers_encoder
e num_layers_decoder
.
Nome parametro | Tipo parametro | Intervalli consigliati |
---|---|---|
num_layers_encoder |
IntegerParameterRange |
[1-10] |
num_layers_decoder |
IntegerParameterRange |
[1-10] |
batch_size |
CategoricalParameterRange |
[16,32,64,128,256,512,1024,2048] |
optimizer_type |
CategoricalParameterRange |
['adam', 'sgd', 'rmsprop'] |
weight_init_type |
CategoricalParameterRange |
['xavier', 'uniform'] |
weight_init_scale |
ContinuousParameterRange |
Per il tipo xavier:: 2.0, MinValue MaxValue: 3.0 Per il tipo uniforme:: -1.0, MinValue: 1.0 MaxValue |
learning_rate |
ContinuousParameterRange |
MinValue: 0,0005, 0,2 MaxValue |
weight_decay |
ContinuousParameterRange |
MinValue: 0,0, 0,1 MaxValue |
momentum |
ContinuousParameterRange |
MinValue: 0,5, MaxValue 0,9 |
clip_gradient |
ContinuousParameterRange |
MinValue: 1,0, MaxValue: 5,0 |
rnn_num_hidden |
CategoricalParameterRange |
Applicabile solo alle reti neurali ricorrenti ()RNNs. [128,256,512,1024,2048] |
cnn_num_hidden |
CategoricalParameterRange |
Applicabile solo alle reti neurali convoluzionali (). CNNs [128,256,512,1024,2048] |
num_embed_source |
IntegerParameterRange |
[256-512] |
num_embed_target |
IntegerParameterRange |
[256-512] |
embed_dropout_source |
ContinuousParameterRange |
MinValue: 0,0, 0,5 MaxValue |
embed_dropout_target |
ContinuousParameterRange |
MinValue: 0,0, MaxValue 0,5 |
rnn_decoder_hidden_dropout |
ContinuousParameterRange |
MinValue: 0,0, MaxValue 0,5 |
cnn_hidden_dropout |
ContinuousParameterRange |
MinValue: 0,0, MaxValue 0,5 |
lr_scheduler_type |
CategoricalParameterRange |
['plateau_reduce', 'fixed_rate_inv_t', 'fixed_rate_inv_sqrt_t'] |
plateau_reduce_lr_factor |
ContinuousParameterRange |
MinValue: 0,1, MaxValue 0,5 |
plateau_reduce_lr_threshold |
IntegerParameterRange |
[1-5] |
fixed_rate_lr_half_life |
IntegerParameterRange |
[10-30] |