BlazingText Hiperparámetros - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

BlazingText Hiperparámetros

Cuando inicie un trabajo de capacitación con una solicitud CreateTrainingJob, especifique un algoritmo de capacitación. También puede especificar hiperparámetros específicos del algoritmo como mapas. string-to-string Los hiperparámetros del BlazingText algoritmo dependen del modo que utilice: Word2Vec (sin supervisión) y Clasificación de texto (supervisado).

Hiperparámetros de Word2Vec

En la siguiente tabla se enumeran los hiperparámetros del algoritmo de entrenamiento BlazingText Word2Vec proporcionado por Amazon. SageMaker

Nombre del parámetro Descripción
mode

La arquitectura de Word2vec se utiliza para la capacitación.

Obligatorio

Valores válidos: batch_skipgram, skipgram o cbow

batch_size

El tamaño de cada lote cuando mode se establece en batch_skipgram. Establezca un número entre 10 y 20.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 11

buckets

La cantidad de buckets hash que se va a utilizar para subunidades de palabras.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 2000000

epochs

El número de pasadas completas en los datos de capacitación.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 5

evaluation

Si el modelo entrenado se evalúa mediante la prueba -353. WordSimilarity

Opcional

Valores válidos: (booleano) True o False

Valor predeterminado: True

learning_rate

El tamaño del paso usado para actualizaciones de parámetros.

Opcional

Valores válidos: número flotante positivo

Valor predeterminado: 0.05

min_char

El número mínimo de caracteres que se va a utilizar para n-gramas de subunidades de palabras/caracteres.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 3

min_count

Las palabras que aparecen menos de min_count veces se descartan.

Opcional

Valores válidos: número entero no negativo

Valor predeterminado: 5

max_char

El número máximo de caracteres que se va a utilizar para n-gramas de subunidades de palabras/caracteres

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 6

negative_samples

El número de muestras negativas para la estrategia de uso compartido de muestra negativa.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 5

sampling_threshold

El umbral para las apariciones de palabras. Las palabras que aparecen con mayor frecuencia en los datos de capacitación se muestrea de forma aleatoria.

Opcional

Valores válidos: fracción positiva. El intervalo recomendado es (0, 1e-3]

Valor predeterminado: 0.0001

subwords

Para decidir si aprender incrustaciones de subunidades de palabras o no.

Opcional

Valores válidos: (booleano) True o False

Valor predeterminado: False

vector_dim

La dimensión de los vectores de palabras que aprende el algoritmo.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 100

window_size

El tamaño de la ventana de contexto. La ventana de contexto es el número de palabras alrededor de la palabra de destino utilizada para la capacitación.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 5

Hiperparámetros de clasificación de texto

En la siguiente tabla se enumeran los hiperparámetros del algoritmo de entrenamiento de clasificación de textos proporcionado por Amazon SageMaker.

nota

Aunque algunos de los parámetros son comunes entre los modos de clasificación de texto y Word2Vec, es posible que tenga significados diferentes en función del contexto.

Nombre del parámetro Descripción
mode

El modo de capacitación.

Obligatorio

Valores válidos: supervised

buckets

La cantidad de buckets hash que se va a utilizar para n-gramas de palabras.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 2000000

early_stopping

Decidir si detener la capacitación si la precisión de validación no mejora después de un número de fechas de inicio de patience. Tenga en cuenta que se requiere un canal de validación si se utiliza una parada temprana.

Opcional

Valores válidos: (booleano) True o False

Valor predeterminado: False

epochs

El número máximo de pasadas completas en los datos de capacitación.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 5

learning_rate

El tamaño del paso usado para actualizaciones de parámetros.

Opcional

Valores válidos: número flotante positivo

Valor predeterminado: 0.05

min_count

Las palabras que aparecen menos de min_count veces se descartan.

Opcional

Valores válidos: número entero no negativo

Valor predeterminado: 5

min_epochs

El número mínimo de fechas de inicio que debe capacitarse antes de invocar la lógica de detención temprana.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 5

patience

El número de fechas de inicio que se debe esperar antes de la aplicación de la detención temprana cuando no se produce ningún avance en el conjunto de validación. Solo se usa cuando early_stopping es True.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 4

vector_dim

La dimensión de la capa de integración.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 100

word_ngrams

El número de características de n-gramas de palabras que se va a utilizar.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 2