

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Hiperparámetros de NTM
<a name="ntm_hyperparameters"></a>

En la siguiente tabla se enumeran los hiperparámetros que puede configurar para el algoritmo Amazon SageMaker AI Neural Topic Model (NTM).


| Nombre del parámetro | Description (Descripción) | 
| --- | --- | 
|  `feature_dim`  |  El tamaño del vocabulario del conjunto de datos. **Obligatorio** Valores válidos: número entero positivo (mín.: 1, máx.: 1,000,000)  | 
| num\$1topics |  El número de temas necesarios. **Obligatorio** Valores válidos: número entero positivo (mín.: 2, máx.: 1000)  | 
| batch\$1norm |  Si utilizar la normalización por lotes durante la capacitación. **Opcional** Valores válidos: *True* o *False* Valor predeterminado: *false*  | 
| clip\$1gradient |  La magnitud máxima para cada componente de gradiente. **Opcional** Valores válidos: número flotante (mín.: 1e-3) Valor predeterminado: infinito  | 
| encoder\$1layers |  El número de capas en el codificador y el tamaño de salida de cada capa. Cuando se establezca en *auto*, el algoritmo usará dos capas de tamaños 3 x `num_topics` y 2 x `num_topics` respectivamente.  **Opcional** Valores válidos: lista separada por comas de números enteros positivos o *auto* Valor predeterminado: *auto*  | 
| encoder\$1layers\$1activation |  La función de activación a utilizar en las capas del codificador. **Opcional** Valores válidos:  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/ntm_hyperparameters.html) Valor predeterminado: `sigmoid`  | 
| epochs |  Número máximo de iteraciones en los datos de capacitación. **Opcional** Valores válidos: número entero positivo (mín.: 1) Valor predeterminado: 50  | 
| learning\$1rate |  La tasa de aprendizaje para el optimizador. **Opcional** Valores válidos: número flotante (mín.: 1e-6, máx.: 1,0) Valor predeterminado: 0.001  | 
| mini\$1batch\$1size |  El número de ejemplos en cada mini lote. **Opcional** Valores válidos: número entero positivo (mín.: 1, máx.: 10000) Valor predeterminado: 256  | 
| num\$1patience\$1epochs |  El número de fechas de inicio sucesivas en la que se evalúa el criterio de detención temprana. La detención temprana se activa cuando se produce el cambio en la función de pérdida cae por debajo del especificado `tolerance` en el último `num_patience_epochs` número de fechas de inicio. Para deshabilitar la detención temprana, establezca `num_patience_epochs` en un valor superior a `epochs`. **Opcional** Valores válidos: número entero positivo (mín.: 1) Valor predeterminado: 3  | 
| optimizer |  El optimizador a utilizar para la capacitación. **Opcional** Valores válidos: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/ntm_hyperparameters.html) Valor predeterminado: `adadelta`  | 
| rescale\$1gradient |  El factor de reescalado para el gradiente. **Opcional** Valores válidos: número flotante (mín.: 1e-3, máx.: 1,0) Valor predeterminado: 1.0  | 
| sub\$1sample |  La fracción de los datos de capacitación que se van a muestrear para capacitación por fecha de inicio. **Opcional** Valores válidos: número flotante (mín.: 0,0, máx.: 1,0) Valor predeterminado: 1.0  | 
| tolerance |  El cambio relativo máximo en la función de pérdida. La detención temprana se activa cuando se produce el cambio en la función de pérdida cae por debajo de este valor en el último `num_patience_epochs` número de fechas de inicio. **Opcional** Valores válidos: número flotante (mín.: 1e-6, máx.: 0,1) Valor predeterminado: 0.001  | 
| weight\$1decay |   El coeficiente de degradación de ponderación. Agrega la regularización L2. **Opcional** Valores válidos: número flotante (mín.: 0,0, máx.: 1,0) Valor predeterminado: 0,0  | 