Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Hiperparámetros de clasificación de imágenes
Los hiperparámetros son parámetros que se establecen antes de que un modelo de machine learning comience a aprender. El algoritmo de clasificación de imágenes SageMaker integrado en Amazon admite los siguientes hiperparámetros. Consulte Ajuste de un modelo de clasificación de imágenes para obtener información sobre el ajuste de hiperparámetros de clasificación de imágenes.
Nombre del parámetro | Descripción |
---|---|
num_classes |
Número de clases de salida. Este parámetro define las dimensiones de la salida de red y normalmente se establece en el número de clases en el conjunto de datos. Además de la clasificación multiclase, también se admite la clasificación multietiqueta. Consulte Interfaz de entrada/salida para el algoritmo de clasificación de imágenes para obtener detallse sobre cómo trabajar con la clasificación multietiqueta con archivos de manifiesto aumentados. Obligatorio Valores válidos: número entero positivo |
num_training_samples |
Número de ejemplos de capacitación en el conjunto de datos de entrada. Si se produce una falta de coincidencia entre este valor y el número de muestras en el conjunto de capacitación, el comportamiento del parámetro Obligatorio Valores válidos: número entero positivo |
augmentation_type |
Tipo de aumento de datos. Las imágenes de entrada pueden aumentarse de distintas formas, como se especifica a continuación.
Opcional Valores válidos: Valor predeterminado: no tiene |
beta_1 |
beta1 para Opcional Valores válidos: número flotante Rango en [0, 1]. Valor predeterminado: 0,9 |
beta_2 |
beta2 para Opcional Valores válidos: número flotante Rango en [0, 1]. Valor predeterminado: 0.999 |
checkpoint_frequency |
Periodo para almacenar los parámetros de modelo (en número de fechas de inicio). Tenga en cuenta que todos los archivos de punto de control se guardan como parte del archivo de modelo final «model.tar.gz» y se cargan en S3 en la ubicación especificada del modelo. Esto aumenta el tamaño del archivo de modelo proporcionalmente al número de puntos de control guardados durante el entrenamiento. Opcional Valores válidos: número entero positivo no superior a Valor predeterminado: ningún valor predeterminado (guarde el punto de comprobación en la época con la mejor precisión de validación) |
early_stopping |
Opcional Valores válidos: Valor predeterminado: |
early_stopping_min_epochs |
El número mínimo de fechas de inicio que deben ejecutarse antes de que pueda invocarse la lógica de detención temprana. Se utiliza solo cuando Opcional Valores válidos: número entero positivo Valor predeterminado: 10 |
early_stopping_patience |
El número de fechas de inicio que esperar antes de finalizar la capacitación si no se realiza ninguna mejora en la métrica relevante. Se utiliza solo cuando Opcional Valores válidos: número entero positivo Valor predeterminado: 5 |
early_stopping_tolerance |
Tolerancia relativa para medir una mejora en la métrica de validación de precisión. Si la proporción de la mejora en la precisión dividida por la mejor precisión anterior es inferior al conjunto de valores Opcional Valores válidos: 0 ≤ número flotante ≤ 1 Valor predeterminado: 0,0 |
epochs |
Número de fechas de inicio de capacitación. Opcional Valores válidos: número entero positivo Valor predeterminado: 30 |
eps |
El valor épsilon para Opcional Valores válidos: número flotante Rango en [0, 1]. Valor predeterminado: 1e-8 |
gamma |
El valor gamma para Opcional Valores válidos: número flotante Rango en [0, 1]. Valor predeterminado: 0,9 |
image_shape |
Las dimensiones de imagen de entrada, que tienen el mismo tamaño que la capa de entrada de la red. El formato se define como ' Se produce un error en el entrenamiento si alguna imagen de entrada es más pequeña que este parámetro en cualquier dimensión. Si una imagen es más grande, se recorta una parte de la imagen y el área recortada se especifica en este parámetro. Si se establece el hiperparámetro En la inferencia, las imágenes de entrada se redimensionan para ajustarlas a la Opcional Valores válidos: cadena Valor predeterminado: “3, 224, 224” |
kv_store |
Modo de sincronización de las actualizaciones de ponderación durante la capacitación distribuida. Las actualizaciones de ponderación pueden actualizarse de forma sincrónica o asincrónica en las máquinas. Las actualizaciones sincrónicas suelen proporcionar una mejor precisión que las asincrónicas, pero pueden ser más lentas. Consulte la capacitación distribuida en MXNet para obtener más detalles. Este parámetro no es aplicable a la capacitación de una máquina.
Opcional Valores válidos: Valor predeterminado: no tiene |
learning_rate |
Tasa de aprendizaje inicial. Opcional Valores válidos: número flotante Rango en [0, 1]. Valor predeterminado: 0.1 |
lr_scheduler_factor |
La proporción para reducir la tasa de aprendizaje utilizada junto con el parámetro Opcional Valores válidos: número flotante Rango en [0, 1]. Valor predeterminado: 0.1 |
lr_scheduler_step |
Las fechas de inicio en las que reducir la tasa de aprendizaje. Tal y como se explica en el parámetro Opcional Valores válidos: cadena Valor predeterminado: no tiene |
mini_batch_size |
El tamaño del lote para la capacitación. En una GPU configuración multimáquina de una sola máquina, cada una de ellas GPU maneja muestras de entrenamiento de Opcional Valores válidos: número entero positivo Valor predeterminado: 32 |
momentum |
El impulso de Opcional Valores válidos: número flotante Rango en [0, 1]. Valor predeterminado: 0,9 |
multi_label |
Marca que se debe utilizar para la clasificación de múltiples etiquetas donde es posible asignar a cada muestra múltiples etiquetas. Se registra la exactitud promedio en todas las clases. Opcional Valores válidos: 0 o 1 Valor predeterminado: 0 |
num_layers |
Número de capas de la red. Para datos con un tamaño de imagen grande (por ejemplo, 224 x 224 ImageNet), sugerimos seleccionar el número de capas del conjunto [18, 34, 50, 101, 152, 200]. Para datos con un tamaño de imagen pequeño (por ejemplo, similar a 28 x 28CIFAR), sugerimos seleccionar el número de capas del conjunto [20, 32, 44, 56, 110]. El número de capas de cada conjunto se basa en el ResNet papel. Para transferir el aprendizaje, el número de capas define la arquitectura de la red de base y, por lo tanto, solo puede seleccionarse desde el conjunto [18, 34, 50, 101, 152, 200]. Opcional Valores válidos: número entero positivo [18, 34, 50, 101, 152, 200] o [20, 32, 44, 56, 110] Valor predeterminado: 152 |
optimizer |
El tipo de optimizador. Para obtener más información sobre los parámetros de los optimizadores, consulte MXNet API Opcional Valores válidos: uno de entre los valores Valor predeterminado: |
precision_dtype |
La precisión de las ponderaciones que se utilizan para la capacitación. El algoritmo puede utilizar precisión única ( Opcional Valores válidos: Valor predeterminado: |
resize |
Número de píxeles en el lado más corto de una imagen después de cambiarla de tamaño para el entrenamiento. Si no se establece el parámetro, se utilizan los datos de capacitación sin el cambio de tamaño. El parámetro debe ser mayor que los componentes de ancho y alto de Necesario cuando se utilizan tipos de contenido de imagen Opcional cuando se utiliza el tipo de contenido RecordIO Valores válidos: número entero positivo Valor predeterminado: no tiene |
top_k |
Informa de la precisión de top-k durante la capacitación. Este parámetro tiene que ser superior a 1, ya que la precisión de la capacitación top-1 es la misma que la precisión de capacitación normal de la que se ha informado. Opcional Valores válidos: número entero positivo superior a 1 Valor predeterminado: no tiene |
use_pretrained_model |
Marca para usar un modelo de capacitación previa para la capacitación. Si se establece en 1, se carga el modelo de capacitación previa con el número correspondiente de capas y se utiliza para la capacitación. Solo la capa FC superior se reinicializa con ponderaciones aleatorias. De lo contrario, se realiza la capacitación de la red desde cero. Opcional Valores válidos: 0 o 1 Valor predeterminado: 0 |
use_weighted_loss |
Marca para utilizar pérdida de entropía cruzada ponderada para la clasificación de múltiples etiquetas (se utiliza solo cuando Opcional Valores válidos: 0 o 1 Valor predeterminado: 0 |
weight_decay |
El decremento de ponderación del coeficiente para Opcional Valores válidos: número flotante Rango en [0, 1]. Valor predeterminado: 0.0001 |