NTMHiperparámetros - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

NTMHiperparámetros

En la siguiente tabla se enumeran los hiperparámetros que puede configurar para el algoritmo Amazon SageMaker Neural Topic Model (NTM).

Nombre del parámetro Descripción

feature_dim

El tamaño del vocabulario del conjunto de datos.

Obligatorio

Valores válidos: número entero positivo (mín.: 1, máx.: 1,000,000)

num_topics

El número de temas necesarios.

Obligatorio

Valores válidos: número entero positivo (mín.: 2, máx.: 1000)

batch_norm

Si utilizar la normalización por lotes durante la capacitación.

Opcional

Valores válidos: True o False

Valor predeterminado: false

clip_gradient

La magnitud máxima para cada componente de gradiente.

Opcional

Valores válidos: número flotante (mín.: 1e-3)

Valor predeterminado: infinito

encoder_layers

El número de capas en el codificador y el tamaño de salida de cada capa. Cuando se establezca en auto, el algoritmo usará dos capas de tamaños 3 x num_topics y 2 x num_topics respectivamente.

Opcional

Valores válidos: lista separada por comas de números enteros positivos o auto

Valor predeterminado: auto

encoder_layers_activation

La función de activación a utilizar en las capas del codificador.

Opcional

Valores válidos:

Valor predeterminado: sigmoid

epochs

Número máximo de iteraciones en los datos de capacitación.

Opcional

Valores válidos: número entero positivo (mín.: 1)

Valor predeterminado: 50

learning_rate

La tasa de aprendizaje para el optimizador.

Opcional

Valores válidos: número flotante (mín.: 1e-6, máx.: 1,0)

Valor predeterminado: 0.001

mini_batch_size

El número de ejemplos en cada mini lote.

Opcional

Valores válidos: número entero positivo (mín.: 1, máx.: 10000)

Valor predeterminado: 256

num_patience_epochs

El número de fechas de inicio sucesivas en la que se evalúa el criterio de detención temprana. La detención temprana se activa cuando se produce el cambio en la función de pérdida cae por debajo del especificado tolerance en el último num_patience_epochs número de fechas de inicio. Para deshabilitar la detención temprana, establezca num_patience_epochs en un valor superior a epochs.

Opcional

Valores válidos: número entero positivo (mín.: 1)

Valor predeterminado: 3

optimizer

El optimizador a utilizar para la capacitación.

Opcional

Valores válidos:

Valor predeterminado: adadelta

rescale_gradient

El factor de reescalado para el gradiente.

Opcional

Valores válidos: número flotante (mín.: 1e-3, máx.: 1,0)

Valor predeterminado: 1.0

sub_sample

La fracción de los datos de capacitación que se van a muestrear para capacitación por fecha de inicio.

Opcional

Valores válidos: número flotante (mín.: 0,0, máx.: 1,0)

Valor predeterminado: 1.0

tolerance

El cambio relativo máximo en la función de pérdida. La detención temprana se activa cuando se produce el cambio en la función de pérdida cae por debajo de este valor en el último num_patience_epochs número de fechas de inicio.

Opcional

Valores válidos: número flotante (mín.: 1e-6, máx.: 0,1)

Valor predeterminado: 0.001

weight_decay

El coeficiente de degradación de ponderación. Agrega la regularización L2.

Opcional

Valores válidos: número flotante (mín.: 0,0, máx.: 1,0)

Valor predeterminado: 0,0