Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
NTMHiperparámetros
En la siguiente tabla se enumeran los hiperparámetros que puede configurar para el algoritmo Amazon SageMaker Neural Topic Model (NTM).
Nombre del parámetro | Descripción |
---|---|
|
El tamaño del vocabulario del conjunto de datos. Obligatorio Valores válidos: número entero positivo (mín.: 1, máx.: 1,000,000) |
num_topics |
El número de temas necesarios. Obligatorio Valores válidos: número entero positivo (mín.: 2, máx.: 1000) |
batch_norm |
Si utilizar la normalización por lotes durante la capacitación. Opcional Valores válidos: True o False Valor predeterminado: false |
clip_gradient |
La magnitud máxima para cada componente de gradiente. Opcional Valores válidos: número flotante (mín.: 1e-3) Valor predeterminado: infinito |
encoder_layers |
El número de capas en el codificador y el tamaño de salida de cada capa. Cuando se establezca en auto, el algoritmo usará dos capas de tamaños 3 x Opcional Valores válidos: lista separada por comas de números enteros positivos o auto Valor predeterminado: auto |
encoder_layers_activation |
La función de activación a utilizar en las capas del codificador. Opcional Valores válidos:
Valor predeterminado: |
epochs |
Número máximo de iteraciones en los datos de capacitación. Opcional Valores válidos: número entero positivo (mín.: 1) Valor predeterminado: 50 |
learning_rate |
La tasa de aprendizaje para el optimizador. Opcional Valores válidos: número flotante (mín.: 1e-6, máx.: 1,0) Valor predeterminado: 0.001 |
mini_batch_size |
El número de ejemplos en cada mini lote. Opcional Valores válidos: número entero positivo (mín.: 1, máx.: 10000) Valor predeterminado: 256 |
num_patience_epochs |
El número de fechas de inicio sucesivas en la que se evalúa el criterio de detención temprana. La detención temprana se activa cuando se produce el cambio en la función de pérdida cae por debajo del especificado Opcional Valores válidos: número entero positivo (mín.: 1) Valor predeterminado: 3 |
optimizer |
El optimizador a utilizar para la capacitación. Opcional Valores válidos:
Valor predeterminado: |
rescale_gradient |
El factor de reescalado para el gradiente. Opcional Valores válidos: número flotante (mín.: 1e-3, máx.: 1,0) Valor predeterminado: 1.0 |
sub_sample |
La fracción de los datos de capacitación que se van a muestrear para capacitación por fecha de inicio. Opcional Valores válidos: número flotante (mín.: 0,0, máx.: 1,0) Valor predeterminado: 1.0 |
tolerance |
El cambio relativo máximo en la función de pérdida. La detención temprana se activa cuando se produce el cambio en la función de pérdida cae por debajo de este valor en el último Opcional Valores válidos: número flotante (mín.: 1e-6, máx.: 0,1) Valor predeterminado: 0.001 |
weight_decay |
El coeficiente de degradación de ponderación. Agrega la regularización L2. Opcional Valores válidos: número flotante (mín.: 0,0, máx.: 1,0) Valor predeterminado: 0,0 |