Directrices para la personalización de modelos - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Directrices para la personalización de modelos

Los parámetros ideales para personalizar un modelo dependen del conjunto de datos y de la tarea para la que está diseñado el modelo. Debe experimentar con los valores para determinar qué parámetros funcionan mejor en su caso específico. Podría ayudarle evaluar su modelo ejecutando un trabajo de evaluación del modelo. Para obtener más información, consulte Elija el modelo con mejor rendimiento mediante las evaluaciones de Amazon Bedrock.

En este tema se proporcionan directrices y valores recomendados como referencia para la personalización de Amazon. Titan Modelo Text Premier. Para otros modelos, consulte la documentación del proveedor.

Utilice las métricas de entrenamiento y validación de los archivos de salida que se generan al enviar un trabajo de microajuste para ayudarle a ajustar los parámetros. Busque estos archivos en el bucket de Amazon S3 en el que escribió el resultado o utilice la GetCustomModeloperación.

Amazon Titan Envía Premier

Las siguientes pautas son para Titan text-to-textModelo Text Premier. Para obtener información acerca de los hiperparámetros que puede establecer, consulte Hiperparámetros de personalización del modelo de Titan texto de Amazon.

Impacto en otros tipos de tareas

En general, cuanto más grande sea el conjunto de datos de entrenamiento, mejor será el rendimiento de una tarea específica. Sin embargo, el entrenamiento para una tarea específica puede hacer que el modelo tenga un peor rendimiento en diferentes tareas, especialmente si se utilizan muchos ejemplos. Por ejemplo, si el conjunto de datos de entrenamiento de una tarea de resumen contiene 100 000 muestras, el modelo podría funcionar peor en una tarea de clasificación.

Tamaño del modelo

En general, cuanto más grande sea el modelo, mejor se realizará la tarea con datos de entrenamiento limitados.

Si utiliza el modelo para una tarea de clasificación, es posible que obtenga ganancias relativamente pequeñas si realiza microajustes de pocos pasos (menos de 100 muestras), especialmente si el número de clases es relativamente pequeño (menos de 100).

Épocas

Recomendamos utilizar las siguientes métricas para determinar el número de épocas que se van a establecer:

  1. Exactitud de la salida de validación: establezca el número de épocas en uno que produzca una alta exactitud.

  2. Pérdida por entrenamiento y validación: determine el número de épocas después de las cuales la pérdida por entrenamiento y validación se estabiliza. Esto corresponde al momento en que el modelo converge. Busque los valores de pérdida por entrenamiento en los archivos step_wise_training_metrics.csv y validation_metrics.csv.

Tamaño de lote

Al cambiar el tamaño del lote, le recomendamos que cambie la tasa de aprendizaje mediante la siguiente fórmula:

newLearningRate = oldLearningRate x newBatchSize / oldBatchSize

El modelo Titan Text Premier actualmente solo admite un tamaño de minilote de 1 unidad para que los clientes puedan ajustarlo con precisión.

Tasa de aprendizaje

Para obtener los mejores resultados de las funciones de ajuste, recomendamos utilizar una tasa de aprendizaje entre 1,00E-07 y 1,00E-05. Un buen punto de partida es el valor predeterminado recomendado de 1,00E-06. Una mayor tasa de aprendizaje puede ayudar a que la formación converja más rápido; sin embargo, puede afectar negativamente a las capacidades del modelo básico.

Valide los datos de entrenamiento con una pequeña submuestra: para validar la calidad de los datos de entrenamiento, le recomendamos que experimente con un conjunto de datos más pequeño (aproximadamente 100 muestras) y que supervise las métricas de validación antes de enviar el trabajo de entrenamiento con un conjunto de datos de entrenamiento más grande.

Pasos de calentamiento de aprendizaje

Recomendamos el valor predeterminado de 5.