Iperparametri NTM - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Iperparametri NTM

Nome parametro Descrizione

feature_dim

La dimensione del vocabolario del set di dati.

Campo obbligatorio

Valori validi: numeri interi positivi (min: 1, max: 1,000,000)

num_topics

Il numero di argomenti richiesti.

Campo obbligatorio

Valori validi: numeri interi positivi (min: 2, max: 1000)

batch_norm

Indica se utilizzare la normalizzazione batch durante la preparazione.

Opzionale

Valori validi: true o false

Valore predefinito: false

clip_gradient

La grandezza massima di ogni componente gradiente.

Opzionale

Valori validi: float (min: 1e-3)

Valore predefinito: Infinity

encoder_layers

Il numero di livelli nel codificatore e le dimensioni dell'output di ogni livello. Se impostato su auto, l'algoritmo utilizza due livelli di dimensioni 3 x num_topics e 2 x num_topics rispettivamente.

Opzionale

Valori validi: elenco separato da virgole di numeri interi positivi o auto

Valore predefinito: auto

encoder_layers_activation

La funzione di attivazione da utilizzare nei livelli del codificatore.

Opzionale

Valori validi:

Valore predefinito: sigmoid

epochs

Numero massimo di passate sui dati di training.

Opzionale

Valori validi: numeri interi positivi (min: 1)

Valore predefinito: 50

learning_rate

La velocità di apprendimento dell'ottimizzatore.

Opzionale

Valori validi: float (min: 1e-6, max: 1.0)

Valore predefinito: 0,001

mini_batch_size

Il numero di esempi in ogni mini-batch.

Opzionale

Valori validi: numeri interi positivi (min: 1, max: 10000)

Valore predefinito: 256

num_patience_epochs

Il numero di epoche (Unix epoch) successive in base al quale il criterio di arresto precoce viene valutato. L'arresto precoce viene attivato quando la modifica della funzione di perdita scende al di sotto della tolerance specificata nell'ultimo numero di epoche (Unix epochs) num_patience_epochs. Per disabilitare l'esclusione dello stopword precoce, imposta num_patience_epochs su un valore maggiore di epochs.

Opzionale

Valori validi: numeri interi positivi (min: 1)

Valore predefinito: 3

optimizer

L'ottimizzatore da utilizzare per la preparazione.

Opzionale

Valori validi:

Valore predefinito: adadelta

rescale_gradient

Il fattore di ridimensionamento per il gradiente.

Opzionale

Valori validi: float (min: 1e-3, max: 1.0)

Valore predefinito: 1.0

sub_sample

La frazione dei dati di training da campionare per il training per ogni epoca (Unix epoch).

Opzionale

Valori validi: float (min: 0.0, max: 1.0)

Valore predefinito: 1.0

tolerance

La modifica relativa massima nella funzione di perdita. L'arresto precoce viene attivato quando la modifica della funzione di perdita scende al di sotto di questo valore nell'ultimo numero di epoche (Unix epochs) num_patience_epochs.

Opzionale

Valori validi: float (min: 1e-6, max: 0.1)

Valore predefinito: 0,001

weight_decay

Il coefficiente di decadimento del peso. Aggiunge la regolarizzazione L2.

Opzionale

Valori validi: float (min: 0.0, max: 1.0)

Valore predefinito: 0.0