

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Hiperparámetros de detección de objetos
<a name="object-detection-api-config"></a>

En la solicitud [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html), especifique el algoritmo de capacitación que desee utilizar. También puede especificar hiperparámetros específicos de algoritmo que se utilizan para ayudar a calcular los parámetros del modelo desde un conjunto de datos de capacitación. En la siguiente tabla se enumeran los hiperparámetros proporcionados por Amazon SageMaker AI para entrenar el algoritmo de detección de objetos. Para obtener más información sobre cómo funciona la capacitación de objetos, consulte [Cómo funciona la detección de objetos](algo-object-detection-tech-notes.md).


| Nombre del parámetro | Description (Descripción) | 
| --- | --- | 
| num\$1classes |  El número de clases de salida. Este parámetro define las dimensiones de la salida de red y normalmente se establece en el número de clases en el conjunto de datos. **Obligatorio** Valores válidos: número entero positivo  | 
| num\$1training\$1samples |  El número de ejemplos de capacitación en el conjunto de datos de entrada.  Si se produce una falta de coincidencia entre este valor y el número de muestras en el conjunto de capacitación, el comportamiento del parámetro `lr_scheduler_step` será indefinido y la precisión distribuida de la capacitación podrá verse afectada.  **Obligatorio** Valores válidos: número entero positivo  | 
| base\$1network |  La arquitectura de red base a utilizar. **Opcional** Valores válidos: "vgg-16" o "resnet-50' Valor predeterminado: 'vgg-16'  | 
| early\$1stopping |  `True` para utilizar lógica de detención temprana durante la capacitación. `False` para no utilizarla. **Opcional** Valores válidos: `True` o `False` Valor predeterminado: `False`  | 
| early\$1stopping\$1min\$1epochs |  El número mínimo de fechas de inicio que deben ejecutarse antes de que pueda invocarse la lógica de detención temprana. Se utiliza solo cuando `early_stopping` = `True`. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 10  | 
| early\$1stopping\$1patience |  El número de fechas de inicio que esperar antes de finalizar la capacitación si no se realiza ninguna mejora, tal como se define en el hiperparámetro `early_stopping_tolerance`, a la métrica relevante. Se utiliza solo cuando `early_stopping` = `True`. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 5  | 
| early\$1stopping\$1tolerance |  El valor de tolerancia relativa que la mejora relativa en `validation:mAP`, la precisión media ponderada (mAP), es necesario para superar para evitar detención una temprana. Si la proporción de cambio en la mAP dividida por la mejor mAP anterior es inferior al conjunto de valor `early_stopping_tolerance`, la detención temprana considerará que no hay mejora. Se utiliza solo cuando `early_stopping` = `True`. **Opcional** Valores válidos: 0 ≤ número flotante ≤ 1 Valor predeterminado: 0,0  | 
| image\$1shape |  El tamaño de la imagen para imágenes de entrada. Reescalamos la imagen de entrada a una imagen cuadrada con este tamaño. Recomendamos utilizar 300 y 512 para un mejor rendimiento. **Opcional** Valores válidos: número entero positivo ≥300 Predeterminado: 300  | 
| epochs |  El número de fechas de inicio de capacitación.  **Opcional** Valores válidos: número entero positivo Valor predeterminado: 30  | 
| freeze\$1layer\$1pattern |  La expresión regular (regex) para congelar capas en la red base. Por ejemplo, si establecemos `freeze_layer_pattern` = `"^(conv1_\|conv2_).*"`, cualquier capa con un nombre que contenga `"conv1_"` o `"conv2_"` se congelará, lo que significa que las ponderaciones de estas capas no se actualizan durante la capacitación. Los nombres de capa se pueden encontrar en los archivos de símbolo de red [vgg16-symbol.json](http://data.mxnet.io/models/imagenet/vgg/vgg16-symbol.json ) y [resnet-50-symbol.json](http://data.mxnet.io/models/imagenet/resnet/50-layers/resnet-50-symbol.json). Congelar una capa significa que sus ponderaciones no se pueden modificar más. Esto puede reducir considerablemente el tiempo de capacitación a cambio de pequeñas pérdidas en precisión. Esta técnica se utiliza generalmente en capacitación de transferencia dónde las capas inferiores de la red básica no tienen que volverse a capacitar. **Opcional** Valores válidos: cadena Predeterminado: sin capas congeladas.  | 
| kv\$1store |  El modo de sincronización de actualización de ponderación usado para la capacitación distribuido. Las ponderaciones pueden actualizarse de forma sincrónica o asíncrona en las máquinas. Las actualizaciones sincrónicas suelen proporcionar una mejor precisión que las asincrónicas, pero pueden ser más lentas. Consulte el MXNet tutorial de [formación distribuida](https://mxnet.apache.org/api/faq/distributed_training) para obtener más información.  Este parámetro no es aplicable a la capacitación de una máquina.  **Opcional** Valores válidos: `'dist_sync'` o `'dist_async'` [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/object-detection-api-config.html) Predeterminado: -  | 
| label\$1width |  La anchura de la etiqueta de relleno de fuerza que se utiliza para la sincronización entre la capacitación y los datos de validación. Por ejemplo, si una imagen de los datos contiene un máximo de 10 objetos y cada comentario del objeto se especifica con 5 números, [class\$1id, izquierda, parte superior, ancho, alto], el `label_width` no puede tener una longitud inferior a (10\$15 \$1 longitud de información del encabezado). La información del encabezado suele ser de longitud 2. Le recomendamos que utilice un `label_width` ligeramente mayor para la capacitación, como 60 en este ejemplo. **Opcional** Valores válidos: número entero positivo lo suficientemente grande como para admitir la mayor información de comentarios en los datos. Predeterminado: 350  | 
| learning\$1rate |  La tasa de aprendizaje inicial. **Opcional** Valores válidos: número flotante en (0, 1] Predeterminado: 0.001  | 
| lr\$1scheduler\$1factor |  La proporción para reducir la tasa de aprendizaje. Utilizado en combinación con el parámetro `lr_scheduler_step` definido como `lr_new` = `lr_old` \$1 `lr_scheduler_factor`. **Opcional** Valores válidos: número flotante en (0, 1) Predeterminado: 0.1  | 
| lr\$1scheduler\$1step |  Las fechas de inicio en las que reducir la tasa de aprendizaje. La tasa de aprendizaje se reduce en `lr_scheduler_factor` en las fechas de inicio (epochs) enumeradas en una cadena delimitada por comas: "epoch1, epoch2,...". Por ejemplo, si el valor se establece en "10, 20" y el `lr_scheduler_factor` se fija en 1/2, la tasa de aprendizaje será dividida a la mitad después de la décima fecha de inicio y de nuevo dividida a la mitad después de la vigésima fecha de inicio. **Opcional** Valores válidos: cadena Valor predeterminado: cadena vacía  | 
| mini\$1batch\$1size |  El tamaño del lote para la capacitación. En una configuración de varias GPU de una sola máquina, cada GPU administra muestras de capacitación `mini_batch_size`/`num_gpu`. Para la capacitación de varias máquinas en el modo `dist_sync`, el tamaño de lote real es `mini_batch_size`\$1número de máquinas. Un gran `mini_batch_size` normalmente conduce a una capacitación más rápida, pero puede provocar un problema de falta de memoria. El uso de la memoria está relacionado con `mini_batch_size`, `image_shape` y la `base_network` arquitectura. Por ejemplo, en una sola instancia p3.2xlarge, el mayor `mini_batch_size` sin un error de falta de memoria es de 32 con base\$1network establecido en "resnet-50" y un `image_shape` de 300. Con la misma instancia de base de datos, puede usar 64 como `mini_batch_size` con la red base `vgg-16` y un `image_shape` de 300. **Opcional** Valores válidos: número entero positivo Predeterminado: 32  | 
| momentum |  El impulso para `sgd`. No se tiene en cuenta para otros optimizadores. **Opcional** Valores válidos: número flotante en (0, 1] Predeterminado: 0.9  | 
| nms\$1threshold |  El umbral de supresión no máxima. **Opcional** Valores válidos: número flotante en (0, 1] Predeterminado: 0.45  | 
| optimizer |  Los tipos de optimizador. Para obtener más información sobre los valores del optimizador, consulta [MXNetla API](https://mxnet.apache.org/api/python/docs/api/). **Opcional** Valores válidos: ["sgd", "adam", "rmsprop", "adadelta"] Predeterminada: "sgd"  | 
| overlap\$1threshold |  La evaluación se solapa al umbral. **Opcional** Valores válidos: número flotante en (0, 1] Predeterminado: 0.5  | 
| use\$1pretrained\$1model |  Indica si usar un modelo capacitado previamente para capacitación. Si se establece en 1, se carga el modelo capacitado previamente con la arquitectura correspondiente y se utiliza para capacitación. De lo contrario, se realiza la capacitación de la red desde cero. **Opcional** Valores válidos: 0 o 1 Valor predeterminado: 1  | 
| weight\$1decay |  El coeficiente de decremento de ponderación para `sgd` y `rmsprop`. No se tiene en cuenta para otros optimizadores. **Opcional** Valores válidos: número flotante en (0, 1) Predeterminado: 0.0005  | 