Was ist Prompt-Engineering? - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Was ist Prompt-Engineering?

Prompt-Engineering bezieht sich auf die Praxis, Eingabeaufforderungen zu erstellen und zu optimieren, indem geeignete Wörter, Ausdrücke, Sätze, Satzzeichen und Trennzeichen ausgewählt werden, um sie effektiv LLMs für eine Vielzahl von Anwendungen zu verwenden. Mit anderen Worten, Prompt Engineering ist die Kunst, mit einem zu kommunizieren. LLM Hochwertige Eingabeaufforderungen sorgen LLM dafür, dass sie gewünschte oder bessere Antworten generieren. Die detaillierten Anleitungen in diesem Dokument gelten für alle Bereiche LLMs von Amazon Bedrock.

Welcher Prompt-Engineering-Ansatz für Ihren Anwendungsfall am besten geeignet ist, hängt sowohl von der Aufgabe als auch von den Daten ab. Zu den häufigsten Aufgaben, die LLMs auf Amazon Bedrock unterstützt werden, gehören:

  • Klassifizierung: Die Aufforderung enthält eine Frage mit mehreren Antwortmöglichkeiten und das Modell muss mit der richtigen Antwort antworten. Ein Beispiel für einen Anwendungsfall der Klassifizierung ist die Stimmungsanalyse: Die Eingabe ist eine Textpassage und das Modell muss die Stimmung des Textes klassifizieren, z. B. ob er positiv oder negativ, harmlos oder toxisch ist.

  • Frage-Antwort, ohne Kontext: Das Modell muss die Frage mit seinem internen Wissen ohne Kontext oder Dokument beantworten.

  • Frage-Antwort, mit Kontext: Der Benutzer stellt einen Eingabetext mit einer Frage zur Verfügung und das Modell muss die Frage auf der Grundlage der im Eingabetext bereitgestellten Informationen beantworten.

  • Zusammenfassung: Die Eingabeaufforderung ist eine Textpassage und das Modell muss mit einer kürzeren Passage antworten, die die wichtigsten Punkte der Eingabe erfasst.

  • Textgenerierung mit offenem Ende: Auf eine Eingabeaufforderung muss das Modell mit einer Passage des Ursprungstexts antworten, die der Beschreibung entspricht. Dazu gehört auch die Generierung von kreativem Text wie Geschichten, Gedichte oder Drehbücher.

  • Codegenerierung: Das Modell muss Code auf der Grundlage von Benutzerspezifikationen generieren. Eine Eingabeaufforderung könnte beispielsweise die Generierung von Text- SQL oder Python-Code anfordern.

  • Mathematik: Die Eingabe beschreibt ein Problem, das in gewissem Maße mathematische Überlegungen erfordert, die numerischer, logischer, geometrischer oder anderer Natur sein können.

  • Argumentation oder logisches Denken: Das Modell muss eine Reihe logischer Schlussfolgerungen ziehen.

  • Entitätsextraktion: Die Entitätenextraktion kann Entitäten auf der Grundlage einer bereitgestellten Eingabefrage extrahieren. Sie können basierend auf Ihrer Aufforderung bestimmte Entitäten aus Text oder Eingabe extrahieren.

  • hain-of-thought C-Argumentation: step-by-step Begründen Sie, wie eine Antwort auf der Grundlage Ihrer Aufforderung abgeleitet wird.