Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Clasificación de texto: TensorFlow hiperparámetros
Los hiperparámetros son parámetros que se establecen antes de que un modelo de machine learning comience a aprender. Los siguientes hiperparámetros son compatibles con el TensorFlow algoritmo integrado de detección de objetos de Amazon SageMaker AI. Para obtener más información sobre el ajuste de hiperparámetros, consulte Ajuste un modelo de clasificación de texto TensorFlow .
Nombre del parámetro | Descripción |
---|---|
batch_size |
El tamaño del lote para la capacitación. Para el entrenamiento en instancias con múltiples instancias GPUs, este tamaño de lote se usa en todas las GPUs. Valores válidos: número entero positivo. Valor predeterminado: |
beta_1 |
El beta1 para los optimizadores Valores válidos: flotante, con el rango [ Valor predeterminado: |
beta_2 |
El beta2 para los optimizadores Valores válidos: flotante, con el rango [ Valor predeterminado: |
dropout_rate |
La tasa de eliminación en la capa de eliminación, dentro de la capa de clasificación superior. Solo se usa cuando Valores válidos: flotante, con el rango [ Valor predeterminado: |
early_stopping |
Se establece en Valores válidos: cadena ( Valor predeterminado: |
early_stopping_min_delta |
El cambio mínimo necesario para considerarse una mejora. Un cambio absoluto inferior al valor de early_stopping_min_delta no se considera mejora. Solo se usa cuando early_stopping está establecido en "True" .Valores válidos: flotante, con el rango [ Valor predeterminado: |
early_stopping_patience |
El número de epochs (fechas de inicio) para seguir entrenando sin que haya mejoras. Solo se usa cuando Valores válidos: número entero positivo. Valor predeterminado: |
epochs |
El número de fechas de inicio de capacitación. Valores válidos: número entero positivo. Valor predeterminado: |
epsilon |
El valor épsilon para los optimizadores Valores válidos: flotante, con el rango [ Valor predeterminado: |
initial_accumulator_value |
El valor inicial de los acumuladores o los valores de impulso por parámetro del optimizador Valores válidos: flotante, con el rango [ Valor predeterminado: |
learning_rate |
La tasa de aprendizaje del optimizador. Valores válidos: flotante, con el rango [ Valor predeterminado: |
momentum |
El valor de impulso para los optimizadores Valores válidos: flotante, con el rango [ Valor predeterminado: |
optimizer |
El tipo de optimizador. Para obtener más información, consulte Optimizadores Valores válidos: cadena, Valor predeterminado: |
regularizers_l2 |
El factor de regularización L2 de la capa densa en la capa de clasificación. Solo se usa cuando Valores válidos: flotante, con el rango [ Valor predeterminado: |
reinitialize_top_layer |
Si se establece en Valores válidos: cadena, Valor predeterminado: |
rho |
El factor de descuento para el gradiente de los optimizadores Valores válidos: flotante, con el rango [ Valor predeterminado: |
train_only_on_top_layer |
Si es Valores válidos: cadena ( Valor predeterminado: |
validation_split_ratio |
La fracción de datos de entrenamiento que se va a dividir aleatoriamente para crear datos de validación. Solo se usa si no se suministran datos de validación a través del canal Valores válidos: flotante, con el rango [ Valor predeterminado: |
warmup_steps_fraction |
La fracción del número total de pasos de actualización del gradiente; la tasa de aprendizaje aumenta desde 0 hasta la tasa de aprendizaje inicial durante la fase de preparación. Solo se usa con el optimizador Valores válidos: flotante, con el rango [ Valor predeterminado: |