Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
MetaLlama 2 Hyperparameter zur Modellanpassung
Die Modelle Meta Llama 2 13B und 70B unterstützen die folgenden Hyperparameter für die Modellanpassung. Weitere Informationen finden Sie unter Passen Sie Ihr Modell an, um seine Leistung für Ihren Anwendungsfall zu verbessern.
Informationen zur Feinabstimmung von Meta Llama-Modellen finden Sie in der Meta Dokumentation unter https://ai.meta.com/llama/get-started/#fine-tuning
Anmerkung
Das epochCount
Kontingent ist anpassbar.
Hyperparameter (Konsole) | Hyperparameter (API) | Definition | Typ | Minimum | Maximum | Standard |
---|---|---|---|---|---|---|
Epochen | epochCount | Die Anzahl der Iterationen durch den gesamten Trainingsdatensatz | Ganzzahl | 1 | 10 | 5 |
Batch-Größe | batchSize | Die Anzahl der Stichproben, die vor der Aktualisierung der Modellparameter verarbeitet wurden | Ganzzahl | 1 | 1 | 1 |
Lernrate | learningRate | Die Geschwindigkeit, mit der Modellparameter nach jedem Batch aktualisiert werden | float | 5.00E-6 | 0.1 | 1.00E-4 |