Hiperparámetros de la personalización del modelo Meta Llama 2 - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Hiperparámetros de la personalización del modelo Meta Llama 2

Los modelos Meta Llama 213B y 70B admiten los siguientes hiperparámetros para la personalización del modelo. Para obtener más información, consulte Personalización del modelo para mejorar su rendimiento según su caso de uso.

Para obtener más información sobre la afinación de los modelos Meta Llama, consulte la documentación de Meta en https://ai.meta.com/llama/get-started/#fine-tuning.

nota

La cuota de epochCount se puede ajustar.

Hiperparámetro (consola) Hiperparámetro (API) Definición Tipo Mínimo Máximo Predeterminado
Épocas epochCount El número de iteraciones en todo el conjunto de datos de entrenamiento integer 1 10 5
Tamaño de lote batchSize El número de muestras procesadas antes de actualizar los parámetros del modelo integer 1 1 1
Tasa de aprendizaje learningRate La velocidad a la que se actualizan los parámetros del modelo después de cada lote float 5.00E-6 0.1 1.00E-4