Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Richtlinien für die Modellanpassung
Die idealen Parameter zum Anpassen eines Modells sind vom Datensatz und der Aufgabe abhängig, für die das Modell vorgesehen ist. Experimentieren Sie mit verschiedenen Werten, um herauszufinden, welche Parameter für Ihren speziellen Fall am besten geeignet sind. Es könnte hilfreich sein, Ihr Modell zu evaluieren, indem Sie einen Auftrag zur Modellbewertung ausführen. Weitere Informationen finden Sie unter Wählen Sie anhand von Amazon Bedrock-Bewertungen das Modell mit der besten Leistung.
Dieses Thema enthält Richtlinien und empfohlene Werte als Grundlage für die Anpassung von Amazon Titan Modell „Text Premier“. Informationen zu anderen Modellen finden Sie in der Dokumentation des Anbieters.
Verwenden Sie die Trainings- und Validierungsmetriken aus den Ausgabedateien, die generiert wurden, wenn Sie einen Feinabstimmungsauftrag übermitteln, um Ihre Parameter anzupassen. Suchen Sie diese Dateien in dem Amazon S3 S3-Bucket, in den Sie die Ausgabe geschrieben haben, oder verwenden Sie den GetCustomModelVorgang.
Amazon Titan Schreiben Sie Premier
Die folgenden Richtlinien gelten für Titan text-to-textModell Text Premier. Informationen zu den Hyperparametern, die Sie definieren können, finden Sie unter Hyperparameter zur Anpassung des Titan Amazon-Textmodells.
Auswirkungen auf andere Aufgabentypen
Im Allgemeinen gilt: Je größer der Trainingsdatensatz, desto besser ist die Leistung für eine bestimmte Aufgabe. Das Training für eine bestimmte Aufgabe kann jedoch dazu führen, dass das Modell bei verschiedenen Aufgaben schlechter abschneidet, insbesondere wenn Sie viele Beispiele verwenden. Wenn der Trainingsdatensatz für eine Zusammenfassungsaufgabe beispielsweise 100.000 Stichproben enthält, schneidet das Modell bei einer Klassifikationsaufgabe möglicherweise schlechter ab.
Modellgröße
Im Allgemeinen gilt: Je größer das Modell, desto besser ist die Leistung der Aufgabe mit begrenzten Trainingsdaten.
Wenn Sie das Modell für eine Klassifizierungsaufgabe verwenden, können Sie bei der Few-Shot-Feinabstimmung (weniger als 100 Stichproben) relativ geringe Vorteile erzielen, insbesondere wenn die Anzahl der Klassen relativ gering ist (weniger als 100).
Epochen
Wir empfehlen, die folgenden Metriken zu verwenden, um die Anzahl der festzulegenden Epochen zu bestimmen:
-
Genauigkeit der Validierungsausgabe – Stellen Sie die Anzahl der Epochen so ein, dass eine hohe Genauigkeit erreicht wird.
-
Trainings- und Validierungsverlust – Ermitteln Sie die Anzahl der Epochen, nach denen der Trainings- und Validierungsverlust stabil wird. Dies entspricht dem Zeitpunkt, zu dem das Modell konvergiert. Die Werte für den Trainingsverlust finden Sie in den Dateien
step_wise_training_metrics.csv
undvalidation_metrics.csv
.
Batch-Größe
Wenn Sie die Batch-Größe ändern, empfehlen wir Ihnen, die Lernrate mit der folgenden Formel zu ändern:
newLearningRate = oldLearningRate x newBatchSize / oldBatchSize
Das Titan Text Premier-Modell unterstützt derzeit nur die Mini-Batch-Größe 1 für die Feinabstimmung durch Kunden.
Lernrate
Um die besten Ergebnisse mit den Funktionen zur Feinabstimmung zu erzielen, empfehlen wir, eine Lernrate zwischen 1,00E-07 und 1,00E-05 zu verwenden. Ein guter Ausgangspunkt ist der empfohlene Standardwert von 1.00E-06. Eine höhere Lernrate kann dazu beitragen, dass das Training schneller konvergiert, kann sich jedoch negativ auf die Fähigkeiten des Kernmodells auswirken.
Überprüfen Sie Ihre Trainingsdaten mit einer kleinen Teilstichprobe — Um die Qualität Ihrer Trainingsdaten zu überprüfen, empfehlen wir, mit einem kleineren Datensatz (~100 Stichproben) zu experimentieren und die Validierungsmetriken zu überwachen, bevor Sie den Trainingsjob mit einem größeren Trainingsdatensatz einreichen.
Aufwärmschritte für das Lernen
Wir empfehlen den Standardwert 5.