Was ist eine Eingabeaufforderung? - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Was ist eine Eingabeaufforderung?

Aufforderungen sind spezifische Eingaben, die von Ihnen, dem Benutzer, bereitgestellt werden und die LLMs auf Amazon Bedrock helfen, eine angemessene Antwort oder Ausgabe für eine bestimmte Aufgabe oder Anweisung zu generieren.

User Prompt: Who invented the airplane?

Wenn Sie mit dieser Aufforderung abgefragt werden, Titan liefert eine Ausgabe:

Output: The Wright brothers, Orville and Wilbur Wright are widely credited with inventing and manufacturing the world's first successful airplane.

(Quelle der Aufforderung: AWS, verwendetes Modell: Amazon Titan Text)

Komponenten einer Eingabeaufforderung

Eine einzelne Aufforderung umfasst mehrere Komponenten, z. B. die Aufgabe oder Anweisung, die Sie ausführen LLMs möchten, den Kontext der Aufgabe (z. B. eine Beschreibung der entsprechenden Domain), Demonstrationsbeispiele und den Eingabetext, den LLMs Amazon Bedrock in seiner Antwort verwenden soll. Abhängig von Ihrem Anwendungsfall, der Verfügbarkeit der Daten und der Aufgabe sollte Ihre Eingabeaufforderung eine oder mehrere dieser Komponenten kombinieren.

Stellen Sie sich diese Beispielaufforderung als Beispiel vor: Titan um eine Bewertung zusammenzufassen:

User Prompt: The following is text from a restaurant review: “I finally got to check out Alessandro’s Brilliant Pizza and it is now one of my favorite restaurants in Seattle. The dining room has a beautiful view over the Puget Sound but it was surprisingly not crowded. I ordered the fried castelvetrano olives, a spicy Neapolitan-style pizza and a gnocchi dish. The olives were absolutely decadent, and the pizza came with a smoked mozzarella, which was delicious. The gnocchi was fresh and wonderful. The waitstaff were attentive, and overall the experience was lovely. I hope to return soon." Summarize the above restaurant review in one sentence.

(Quelle der Aufforderung: AWS)

Basierend auf dieser Aufforderung Titan antwortet mit einer kurzen einzeiligen Zusammenfassung der Restaurantbewertung. Die Bewertung nennt wichtige Fakten und vermittelt, wie gewünscht, die wichtigsten Punkte.

Output: Alessandro's Brilliant Pizza is a fantastic restaurant in Seattle with a beautiful view over Puget Sound, decadent and delicious food, and excellent service.

(Verwendetes Modell: Amazon) Titan Text)

Sowohl die Instruktion Summarize the above restaurant review in one sentence als auch der Bewertungstext I finally got to check out ... waren für diese Art der Ausgabe erforderlich. Ohne eine der beiden Komponenten würde das Modell nicht über genügend Informationen verfügen, um eine sinnvolle Zusammenfassung zu erstellen. Die Anweisung gibt an, LLM was zu tun ist, und der Text ist die Eingabe, auf der das ausgeführt LLM wird. Der Kontext (The following is text from a restaurant review) bietet zusätzliche Informationen und Schlüsselwörter, die das Modell dazu anleiten, die Eingabe bei der Formulierung seiner Ausgabe zu verwenden.

Im Beispiel unten Context: Climate change threatens people with increased flooding ... ist der Text die Eingabe, mit der sie die Aufgabe der Beantwortung der Frage ausführen LLM könnenQuestion: What organization calls climate change the greatest threat to global health in the 21st century?”.

User prompt: Context: Climate change threatens people with increased flooding, extreme heat, increased food and water scarcity, more disease, and economic loss. Human migration and conflict can also be a result. The World Health Organization (WHO) calls climate change the greatest threat to global health in the 21st century. Adapting to climate change through efforts like flood control measures or drought-resistant crops partially reduces climate change risks, although some limits to adaptation have already been reached. Poorer communities are responsible for a small share of global emissions, yet have the least ability to adapt and are most vulnerable to climate change. The expense, time required, and limits of adaptation mean its success hinge on limiting global warming. Question: What organization calls climate change the greatest threat to global health in the 21st century?

(Quelle der Eingabeaufforderung: https://en.wikipedia.org/wiki/Climate_change)

AI21 Labs Jurassic antwortet mit dem richtigen Namen der Organisation entsprechend dem in der Aufforderung angegebenen Kontext.

Output: The World Health Organization (WHO) calls climate change the greatest threat to global health in the 21st century.

(Verwendetes Modell: AI21 Labs Jurassic-2 Ultra v1)

Few Shot Prompting und Zero Shot Prompting im Vergleich

Manchmal ist es hilfreich, einige Beispiele zu nennen, um die Ergebnisse LLMs besser an Ihre Erwartungen anzupassen. Dies wird auch als Few-Shot-Prompting oder In-Context-Learning bezeichnet, bei dem ein Schuss einer Kombination aus Beispieleingabe und gewünschtem Output entspricht. Zur Veranschaulichung finden Sie hier zunächst ein Beispiel für ein Zero Shot Prompting zur Stimmungsklassifizierung, bei der kein Beispiel für ein Ein-/Ausgabe-Paar im Eingabeaufforderungstext angegeben ist:

User prompt: Tell me the sentiment of the following headline and categorize it as either positive, negative or neutral: New airline between Seattle and San Francisco offers a great opportunity for both passengers and investors.

(Quelle der Aufforderung: AWS)

Output: Positive

(Verwendetes Modell: Amazon) Titan Text)

Hier ist die Few-Shot-Version einer Eingabeaufforderung zur Stimmungsklassifizierung:

User prompt: Tell me the sentiment of the following headline and categorize it as either positive, negative or neutral. Here are some examples: Research firm fends off allegations of impropriety over new technology. Answer: Negative Offshore windfarms continue to thrive as vocal minority in opposition dwindles. Answer: Positive Manufacturing plant is the latest target in investigation by state officials. Answer:

(Quelle der Aufforderung: AWS)

Output: Negative

(Verwendetes Modell: Amazon) Titan Text)

Das folgende Beispiel verwendet Anthropic Claude Modelle. Bei der Verwendung Anthropic Claude Bei Modellen empfiehlt es sich,<example></example> Tags zu verwenden, um Demonstrationsbeispiele einzufügen. Wir empfehlen außerdem, unterschiedliche Trennzeichen wie H: und A: in den Beispielen zu verwenden, um Verwechslungen mit den Trennzeichen Human: und Assistant: für die gesamte Eingabeaufforderung zu vermeiden. Beachten Sie, dass bei den letzten wenigen Beispielen das Finale zugunsten von Assistant: weggelassen A: wird Anthropic Claude um stattdessen die Antwort zu generieren.

User prompt: Human: Please classify the given email as "Personal" or "Commercial" related emails. Here are some examples. <example> H: Hi Tom, it's been long time since we met last time. We plan to have a party at my house this weekend. Will you be able to come over? A: Personal </example> <example> H: Hi Tom, we have a special offer for you. For a limited time, our customers can save up to 35% of their total expense when you make reservations within two days. Book now and save money! A: Commercial </example> H: Hi Tom, Have you heard that we have launched all-new set of products. Order now, you will save $100 for the new products. Please check our website. Assistant: Output: Commercial

(Quelle der Aufforderung: AWS, verwendetes Modell: Anthropic Claude)

Vorlage für eine Eingabeaufforderung

Eine Eingabeaufforderungsvorlage gibt die Formatierung der Eingabeaufforderung mit austauschbarem Inhalt an. Vorlagen für Eingabeaufforderungen sind „Rezepte“, die LLMs für verschiedene Anwendungsfälle wie Klassifizierung, Zusammenfassung, Beantwortung von Fragen und mehr verwendet werden können. Eine Vorlage für Eingabeaufforderungen kann Instruktionen, Few-Shot-Beispiele sowie spezifischen Kontext und Fragen enthalten, die für einen bestimmten Anwendungsfall geeignet sind. Das folgende Beispiel ist eine Vorlage, die Sie verwenden können, um mithilfe von Amazon-Bedrock-Textmodellen eine Few-Shot-Stimmungsklassifizierung durchzuführen:

Prompt template: """Tell me the sentiment of the following {{Text Type, e.g., “restaurant review”}} and categorize it as either {{Sentiment A}} or {{Sentiment B}}. Here are some examples: Text: {{Example Input 1}} Answer: {{Sentiment A}} Text: {{Example Input 2}} Answer: {{Sentiment B}} Text: {{Input}} Answer:"""

Benutzer können diese Vorlage kopieren und einfügen und dabei ihren eigenen Text und einige Beispiele eingeben, um die Eingabeaufforderungen bei der Verwendung LLMs auf Amazon Bedrock auszufüllen. Weitere Vorlagen finden Sie in diesem Abschnitt.

Anmerkung

Die doppelten geschweiften Klammern {{ and }} kennzeichnen die Stellen, an denen datenspezifische Informationen in der Vorlage eingegeben werden müssen. Sie sollten nicht in den Eingabeaufforderungstext aufgenommen werden.

Wichtige Hinweise zur Nutzung von Amazon Bedrock LLMs per API Telefonanruf

Wenn Sie über API Anrufe LLMs auf Amazon Bedrock zugreifen, beachten Sie bitte, dass frühere Eingabeaufforderungen und Anfragen nicht abgerufen werden, es sei denn, die vorherige Interaktion ist in der aktuellen Aufforderung enthalten. Möglicherweise benötigen Sie dies für Interaktionen im Konversationsstil oder für Folgeanfragen.

Wenn Sie zugreifen Anthropic Claude Modelle, die API Anrufe anstelle des Amazon Bedrock Text Playground verwenden, verpacken Sie Ihre Eingabeaufforderungen in einen Konversationsstil, um die gewünschte Antwort zu erhalten (für Titan Text und AI21 Labs Jurassic-Modellfamilie, das ist nicht notwendig). Das folgende Beispiel zeigt eine Eingabeaufforderung im Konversationsstil:

User prompt: Human: Describe where sea otters live in two sentences. Assistant: Output: Here is a two sentence description of where sea otters live: Sea otters live in the northern Pacific Ocean along the coasts of Russia, Alaska, Canada, and the continental United States. They prefer coastal habitats like rocky shores, kelp forests, and estuaries where they have access to shallow, nearshore waters.

(Quelle der Aufforderung: AWS, verwendetes Modell: Anthropic Claude)

Beachten Sie, dass der Hauptinhalt der Eingabeaufforderung wie folgt verfasst ist: \n\nHuman: {{Main Content}}\n\nAssistant:. Wählen Sie in der &Snowconsole; Ihren Auftrag aus der Tabelle. Anthropic Claude Modelle, Eingabeaufforderungen, die über das gesendet werden, API müssen\n\nHuman: und enthalten. \n\nAssistant:

Um den Konversationsmodus zu verwenden Titan, können Sie User: {{}} \n Bot: bei der Eingabe des Modells das Format von verwenden.