Prompt-Engineering für Grundlagenmodelle - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Prompt-Engineering für Grundlagenmodelle

Prompt-Engineering ist der Prozess, bei dem die Eingabeaufforderungen oder Eingabestimuli für ein Sprachmodell entworfen und optimiert werden, um bestimmte Ausgabetypen zu generieren. Prompt-Engineering beinhaltet die Auswahl geeigneter Schlüsselwörter, die Bereitstellung von Kontext und die Gestaltung der Eingaben auf eine Weise, dass das Modell die gewünschte Reaktion hervorruft. Dies ist eine wichtige Technik, um das Verhalten und die Ausgabe von Grundlagenmodellen aktiv mitzugestalten.

Effektives Prompt-Engineering ist für die Steuerung des Modellverhaltens und die Erzielung der gewünschten Reaktionen entscheidend. Durch Prompt-Engineering können Sie den Ton, den Stil und das Fachwissen eines Modells steuern, ohne aufwändigere Anpassungen wie Feinabstimmungen vornehmen zu müssen. Wir empfehlen, für das Prompt-Engineering Zeit einzuplanen, bevor Sie eine Feinabstimmung eines Modells anhand zusätzlicher Daten erwägen. Ziel ist es, dem Modell ausreichend Kontext und Leitlinien zur Verfügung zu stellen, damit es in Szenarien mit ungesehenen oder begrenztem Datenvolumen verallgemeinern und eine gute Leistung erbringen kann.

Zero-Shot-Lernen

Beim Zero-Shot-Lernen wird ein Modell so trainiert, dass es verallgemeinern und für bisher ungesehene Klassen oder Aufgaben Vorhersagen treffen kann. Für das Prompt-Engineering in Zero-Shot-Lernumgebungen empfehlen wir, Eingabeaufforderungen zu erstellen, die explizit Informationen über die Zielaufgabe und das gewünschte Ausgabeformat enthalten. Wenn Sie beispielsweise ein Grundlagenmodell für die Zero-Shot-Textklassifizierung für eine Gruppe von Klassen verwenden möchten, die das Modell während des Trainings nicht gesehen hat, könnte eine gut durchdachte Aufforderung folgendermaßen lauten: "Classify the following text as either sports, politics, or entertainment: [input text]." Indem Sie die Zielklassen und das erwartete Ausgabeformat explizit angeben, können Sie das Modell dazu bringen, auch für ungesehene Klassen genaue Vorhersagen zu treffen.

Few-Shot-Lernen

Beim Few-Shot Learning wird ein Modell mit einer begrenzten Datenmenge für neue Klassen oder Aufgaben trainiert. In Few-Shot-Lernumgebungen konzentriert sich Prompt-Engineering auf die Gestaltung von Aufforderungen, die die begrenzten verfügbaren Trainingsdaten effektiv nutzen. Wenn Sie beispielsweise ein Grundlagenmodell für eine Aufgabe zur Bildklassifizierung verwenden und nur wenige Beispiele für eine neue Bildklasse haben, können Sie eine Eingabeaufforderung erstellen, die die verfügbaren gekennzeichneten Beispiele mit einem Platzhalter für die Zielklasse enthält. Die Aufforderung könnte beispielsweise folgendermaßen lauten: "[image 1], [image 2], and [image 3] are examples of [target class]. Classify the following image as [target class]". Indem Sie die begrenzten gekennzeichneten Beispiele einbeziehen und die Zielklasse explizit angeben, können Sie das Modell dazu bringen, selbst mit minimalen Trainingsdaten zu verallgemeinern und genaue Vorhersagen zu treffen.

Unterstützte Inferenzparameter

Eine Änderung der Inferenzparameter kann sich auch auf die Antworten auf Ihre Eingabeaufforderungen auswirken. Sie können zwar versuchen, Ihren Eingabeaufforderungen so viel Spezifität und Kontext wie möglich hinzuzufügen, aber Sie können auch mit unterstützten Inferenzparametern experimentieren. Im Folgenden finden Sie Beispiele für einige häufig unterstützte Inferenzparameter:

Inferenzparameter Beschreibung

max_new_tokens

Die maximale Ausgabelänge einer Antwort im Foundation-Modell. Gültige Werte: Ganzzahl, Bereich: Positive Ganzzahl.

temperature

Steuert die Zufälligkeit der Ausgabe. Eine höhere Temperatur führt zu einer Ausgabesequenz mit Wörtern mit niedriger Wahrscheinlichkeit und eine niedrigere Temperatur führt zu einer Ausgabesequenz mit Wörtern mit hoher Wahrscheinlichkeit. Fallstemperature=0, besteht die Antwort nur aus Wörtern mit der höchsten Wahrscheinlichkeit (Greedy-Decodierung). Gültige Werte: Float, Bereich: Positiver Float.

top_p

In jedem Schritt der Textgenerierung nimmt das Modell Stichproben aus der kleinstmöglichen Wortgruppe mit einer kumulativen Wahrscheinlichkeit von. top_p Gültige Werte: Float, Wertebereich: 0,0, 1,0.

return_full_text

WennTrue, dann ist der Eingabetext Teil des generierten Ausgabetextes. Gültige Werte: boolean, Standard: False.

Weitere Informationen zur Inferenz von Fundamentmodellen finden Sie unter. Stellen Sie mit der JumpStartModel Klasse öffentlich verfügbare Foundation-Modelle bereit

Wenn die schnelle Entwicklung nicht ausreicht, um Ihr Basismodell an spezifische Geschäftsanforderungen, domänenspezifische Sprache, Zielaufgaben oder andere Anforderungen anzupassen, können Sie erwägen, Ihr Modell anhand zusätzlicher Daten zu verfeinern oder Retrieval Augmented Generation (RAG) zu verwenden, um Ihre Modellarchitektur um erweiterten Kontext aus archivierten Wissensquellen zu erweitern. Weitere Informationen finden Sie unter Basismodelle und Hyperparameter für die Feinabstimmung oder Erweiterte Generierung beim Abrufen.