

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# BlazingText Hiperparámetros
<a name="blazingtext_hyperparameters"></a>

Cuando inicie un trabajo de capacitación con una solicitud `CreateTrainingJob`, especifique un algoritmo de capacitación. También puede especificar hiperparámetros específicos del algoritmo como mapas. string-to-string Los hiperparámetros del BlazingText algoritmo dependen del modo que utilice: Word2Vec (sin supervisión) y Clasificación de texto (supervisado).

## Hiperparámetros de Word2Vec
<a name="blazingtext_hyperparameters_word2vec"></a>

En la siguiente tabla se enumeran los hiperparámetros del algoritmo de entrenamiento BlazingText Word2Vec proporcionado por Amazon AI. SageMaker 


| Nombre del parámetro | Description (Descripción) | 
| --- | --- | 
| mode |  La arquitectura de Word2vec se utiliza para la capacitación. **Obligatorio** Valores válidos: `batch_skipgram`, `skipgram` o `cbow`  | 
| batch\$1size |  El tamaño de cada lote cuando `mode` se establece en `batch_skipgram`. Establezca un número entre 10 y 20. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 11  | 
| buckets |  La cantidad de buckets hash que se va a utilizar para subunidades de palabras. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 2000000  | 
| epochs |  El número de pasadas completas en los datos de capacitación. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 5  | 
| evaluation |  [Si el modelo entrenado se evalúa mediante la prueba -353. WordSimilarity](http://www.gabrilovich.com/resources/data/wordsim353/wordsim353.html) **Opcional** Valores válidos: (booleano) `True` o `False` Valor predeterminado: `True`  | 
| learning\$1rate |  El tamaño del paso usado para actualizaciones de parámetros. **Opcional** Valores válidos: número flotante positivo Valor predeterminado: 0.05  | 
| min\$1char |  El número mínimo de caracteres que se va a utilizar para n-gramas de subunidades de palabras/caracteres. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 3  | 
| min\$1count |  Las palabras que aparecen menos de `min_count` veces se descartan. **Opcional** Valores válidos: número entero no negativo Valor predeterminado: 5  | 
| max\$1char |  El número máximo de caracteres que se va a utilizar para n-gramas de subunidades de palabras/caracteres **Opcional** Valores válidos: número entero positivo Valor predeterminado: 6  | 
| negative\$1samples |  El número de muestras negativas para la estrategia de uso compartido de muestra negativa. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 5  | 
| sampling\$1threshold |  El umbral para las apariciones de palabras. Las palabras que aparecen con mayor frecuencia en los datos de capacitación se muestrea de forma aleatoria. **Opcional** Valores válidos: fracción positiva. El intervalo recomendado es (0, 1e-3] Valor predeterminado: 0.0001  | 
| subwords |  Para decidir si aprender incrustaciones de subunidades de palabras o no. **Opcional** Valores válidos: (booleano) `True` o `False` Valor predeterminado: `False`  | 
| vector\$1dim |  La dimensión de los vectores de palabras que aprende el algoritmo. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 100  | 
| window\$1size |  El tamaño de la ventana de contexto. La ventana de contexto es el número de palabras alrededor de la palabra de destino utilizada para la capacitación. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 5  | 

## Hiperparámetros de clasificación de texto
<a name="blazingtext_hyperparameters_text_class"></a>

En la siguiente tabla se enumeran los hiperparámetros del algoritmo de entrenamiento de clasificación de textos proporcionado por Amazon SageMaker AI.

**nota**  
Aunque algunos de los parámetros son comunes entre los modos de clasificación de texto y Word2Vec, es posible que tenga significados diferentes en función del contexto.


| Nombre del parámetro | Description (Descripción) | 
| --- | --- | 
| mode |  El modo de capacitación. **Obligatorio** Valores válidos: `supervised`  | 
| buckets |  La cantidad de buckets hash que se va a utilizar para n-gramas de palabras. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 2000000  | 
| early\$1stopping |  Decidir si detener la capacitación si la precisión de validación no mejora después de un número de fechas de inicio de `patience`. Tenga en cuenta que se requiere un canal de validación si se utiliza una parada temprana. **Opcional** Valores válidos: (booleano) `True` o `False` Valor predeterminado: `False`  | 
| epochs |  El número máximo de pasadas completas en los datos de capacitación. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 5  | 
| learning\$1rate |  El tamaño del paso usado para actualizaciones de parámetros. **Opcional** Valores válidos: número flotante positivo Valor predeterminado: 0.05  | 
| min\$1count |  Las palabras que aparecen menos de `min_count` veces se descartan. **Opcional** Valores válidos: número entero no negativo Valor predeterminado: 5  | 
| min\$1epochs |  El número mínimo de fechas de inicio que debe capacitarse antes de invocar la lógica de detención temprana. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 5  | 
| patience |  El número de fechas de inicio que se debe esperar antes de la aplicación de la detención temprana cuando no se produce ningún avance en el conjunto de validación. Solo se usa cuando `early_stopping` es `True`. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 4  | 
| vector\$1dim |  La dimensión de la capa de integración. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 100  | 
| word\$1ngrams |  El número de características de n-gramas de palabras que se va a utilizar. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 2  | 