Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Sequence-to-Sequence Hiperparámetros
En la siguiente tabla se enumeran los hiperparámetros que puedes configurar al entrenar con el algoritmo Amazon SageMaker Sequence-to-Sequence (seq2seq).
Nombre del parámetro | Descripción |
---|---|
batch_size |
Tamaño del minilote para el gradiente descendiente. Opcional Valores válidos: número entero positivo Valor predeterminado: 64 |
beam_size |
Longitud del haz para la búsqueda de haces. Se utiliza durante la capacitación de la computación Opcional Valores válidos: número entero positivo Valor predeterminado: 5 |
bleu_sample_size |
Número de instancias que elegir desde el conjunto de datos de validación para decodificar y calcular la puntuación Opcional Valores válidos: número entero Valor predeterminado: 0 |
bucket_width |
Devuelve buckets (origen, destino) hasta ( Opcional Valores válidos: número entero positivo Valor predeterminado: 10 |
bucketing_enabled |
Establézcalo en Opcional Valores válidos: Valor predeterminado: |
checkpoint_frequency_num_batches |
Punto de comprobación y evaluación cada x lotes. Este hiperparámetro de puntos de control se pasa al algoritmo seq2seq SageMaker del mismo para detenerlo anticipadamente y recuperar el mejor modelo. Los puntos de control del algoritmo se ejecutan localmente en el contenedor de entrenamiento del algoritmo y no son compatibles con los puntos de control. SageMaker El algoritmo guarda temporalmente los puntos de control en una ruta local y guarda el mejor artefacto del modelo en la ruta de salida del modelo en S3 una vez finalizado el trabajo de entrenamiento. Opcional Valores válidos: número entero positivo Valor predeterminado: 1000 |
checkpoint_threshold |
Se permite que el número máximo de modelo de puntos de comprobación no mejore en Opcional Valores válidos: número entero positivo Valor predeterminado: 3 |
clip_gradient |
Los valores de gradiente absolutos de clips son superiores a este. Establézcalo en negativo para deshabilitar. Opcional Valores válidos: número flotante Valor predeterminado: 1 |
cnn_activation_type |
El tipo de activación Opcional Valores válidos: Cadena. Puede ser uno de los siguientes: Valor predeterminado: |
cnn_hidden_dropout |
Probabilidad de abandono para al abandono entre capas convolucionales. Opcional Valores válidos: número flotante. Rango en [0,1]. Valor predeterminado: 0 |
cnn_kernel_width_decoder |
Ancho de kernel para el decodificador Opcional Valores válidos: número entero positivo Valor predeterminado: 5 |
cnn_kernel_width_encoder |
Ancho de kernel para el codificador Opcional Valores válidos: número entero positivo Valor predeterminado: 3 |
cnn_num_hidden |
Número de unidades ocultas Opcional Valores válidos: número entero positivo Valor predeterminado: 512 |
decoder_type |
Tipo de decodificador. Opcional Valores válidos: Cadena. Valor predeterminado: rnn |
embed_dropout_source |
Probabilidad de abandono para las incrustaciones del lado del origen. Opcional Valores válidos: número flotante. Rango en [0,1]. Valor predeterminado: 0 |
embed_dropout_target |
Probabilidad de abandono para las incrustaciones del lado del destino. Opcional Valores válidos: número flotante. Rango en [0,1]. Valor predeterminado: 0 |
encoder_type |
Tipo de codificador. La arquitectura Opcional Valores válidos: Cadena. Valor predeterminado: |
fixed_rate_lr_half_life |
Vida media de la tasa de aprendizaje en términos de número de puntos de comprobación para programadores Opcional Valores válidos: número entero positivo Valor predeterminado: 10 |
learning_rate |
Tasa de aprendizaje inicial. Opcional Valores válidos: número flotante Valor predeterminado: 0.0003 |
loss_type |
Función de pérdida para la capacitación. Opcional Valores válidos: Cadena. Valor predeterminado: |
lr_scheduler_type |
El tipo de programador de la tasa de aprendizaje. Opcional Valores válidos: Cadena. Uno de los valores de entre Valor predeterminado: |
max_num_batches |
Número máximo de actualizaciones/lotes que procesar. -1 para infinito. Opcional Valores válidos: número entero Valor predeterminado: -1 |
max_num_epochs |
Número máximo de fechas de inicio por los que pasan los datos de capacitación antes de que se detenga la adaptación. La capacitación continúa hasta este número de fechas de inicio incluso si la precisión de la validación no mejora si se aprueba el parámetro. Se ignora si no se aprueba. Opcional Valores válidos: entero positivo y menor o igual que max_num_epochs. Valor predeterminado: ninguno |
max_seq_len_source |
La longitud máxima para la longitud de secuencia de origen. Las secuencias que superen esta longitud se truncarán con esa longitud. Opcional Valores válidos: número entero positivo Valor predeterminado: 100 |
max_seq_len_target |
La longitud máxima para la longitud de secuencia de destino. Las secuencias que superen esta longitud se truncarán con esa longitud. Opcional Valores válidos: número entero positivo Valor predeterminado: 100 |
min_num_epochs |
Número mínimo de fechas de inicio que la capacitación debe ejecutar antes de que se detenga a través de las condiciones Opcional Valores válidos: número entero positivo Valor predeterminado: 0 |
momentum |
Constante de momento utilizada para Opcional Valores válidos: número flotante Valor predeterminado: ninguno |
num_embed_source |
Tamaño de integración para tokens de origen. Opcional Valores válidos: número entero positivo Valor predeterminado: 512 |
num_embed_target |
Tamaño de integración para tokens de destino. Opcional Valores válidos: número entero positivo Valor predeterminado: 512 |
num_layers_decoder |
Número de capas para el decodificador rnn o cnn. Opcional Valores válidos: número entero positivo Valor predeterminado: 1 |
num_layers_encoder |
Número de capas para el codificador Opcional Valores válidos: número entero positivo Valor predeterminado: 1 |
optimized_metric |
Métricas que optimizar con una detención temprana. Opcional Valores válidos: Cadena. Uno de los valores de entre Valor predeterminado: |
optimizer_type |
Optimizador de entre el que elegir. Opcional Valores válidos: Cadena. Uno de los valores de entre Valor predeterminado: |
plateau_reduce_lr_factor |
Factor con el que multiplicar la tasa de aprendizaje (para Opcional Valores válidos: número flotante Valor predeterminado: 0,5 |
plateau_reduce_lr_threshold |
Para el programador Opcional Valores válidos: número entero positivo Valor predeterminado: 3 |
rnn_attention_in_upper_layers |
Presta atención a las capas superiores de rnn, como Google NMT Paper. Solo es aplicable si se utiliza más de una capa. Opcional Valores válidos: booleano ( Valor predeterminado: |
rnn_attention_num_hidden |
El valor predeterminado del número de unidades ocultas para capas de atención es Opcional Valores válidos: número entero positivo Valor predeterminado: |
rnn_attention_type |
Modelo de atención para codificadores. Opcional Valores válidos: Cadena. Puede ser uno de los siguientes: Valor predeterminado: |
rnn_cell_type |
Tipo específico de arquitectura Opcional Valores válidos: Cadena. Valor predeterminado: |
rnn_decoder_state_init |
Cómo inicializar estados del decodificador Opcional Valores válidos: Cadena. Uno de los valores de entre Valor predeterminado: |
rnn_first_residual_layer |
La primera capa rnn que tiene una conexión residual, solo aplicable si el número de capas del codificador o decodificador es superior a 1. Opcional Valores válidos: número entero positivo Valor predeterminado: 2 |
rnn_num_hidden |
El número de unidades ocultas rnn para el codificador y el decodificador. Debe ser un múltiplo de 2 porque el algoritmo usa memoria bidireccional a largo plazo y corto plazo (LSTM) de forma predeterminada. Opcional Valores válidos: número par entero positivo Valor predeterminado: 1024 |
rnn_residual_connections |
Agregue la conexión residual al rnn apilado. El número de capas debe ser superior a 1. Opcional Valores válidos: booleano ( Valor predeterminado: |
rnn_decoder_hidden_dropout |
La probabilidad de abandono para el estado oculto que combina el contexto con el estado oculto rnn en el decodificador. Opcional Valores válidos: número flotante. Rango en [0,1]. Valor predeterminado: 0 |
training_metric |
Las métricas para realizar un seguimiento de la capacitación en los datos de validación. Opcional Valores válidos: Cadena. Valor predeterminado: |
weight_decay |
Constante de decadencia de ponderación. Opcional Valores válidos: número flotante Valor predeterminado: 0 |
weight_init_scale |
Escala de la inicialización de la ponderación (para la inicialización Opcional Valores válidos: número flotante Valor predeterminado: 2.34 |
weight_init_type |
Tipo de inicialización de la ponderación. Opcional Valores válidos: Cadena. Valor predeterminado: |
xavier_factor_type |
Tipo de factor de xavier. Opcional Valores válidos: Cadena. Uno de los valores de entre Valor predeterminado: |