Meta Llama 2 Hiperparámetros de la personalización del modelo   - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Meta Llama 2 Hiperparámetros de la personalización del modelo  

La Meta Llama 2 Los modelos 13B y 70B admiten los siguientes hiperparámetros para la personalización del modelo. Para obtener más información, consulte Personalización del modelo para mejorar su rendimiento según su caso de uso.

Para obtener información sobre el ajuste fino Meta Los modelos Llama, consulte la Meta la documentación se encuentra en https://ai.meta.com/llama/get-started/ #fine -tuning.

nota

La cuota de epochCount se puede ajustar.

Hiperparámetro (consola) Hiperparámetro (API) Definición Tipo Mínimo Máximo Predeterminado/a
Épocas epochCount El número de iteraciones en todo el conjunto de datos de entrenamiento entero 1 10 5
Tamaño de lote batchSize El número de muestras procesadas antes de actualizar los parámetros del modelo entero 1 1 1
Tasa de aprendizaje learningRate La velocidad a la que se actualizan los parámetros del modelo después de cada lote float 5.00E-6 0.1 1.00E-4