Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Qu’est-ce qu’une invite ?
Les invites sont un ensemble spécifique d'entrées fournies par vous, l'utilisateur, qui vous guident LLMs sur Amazon Bedrock pour générer une réponse ou un résultat approprié pour une tâche ou une instruction donnée.
User Prompt: Who invented the airplane?
Lorsque cette invite vous le demande, Titan fournit une sortie :
Output: The Wright brothers, Orville and Wilbur Wright are widely credited with inventing and manufacturing the world's first successful airplane.
(Source de l'invite : AWS modèle utilisé : Amazon Titan Texte)
Rubriques
Éléments qui constituent une invite
Une seule invite inclut plusieurs éléments, tels que la tâche ou l'instruction que vous LLMs souhaitez exécuter, le contexte de la tâche (par exemple, une description du domaine concerné), des exemples de démonstration et le texte de saisie que vous souhaitez utiliser LLMs sur Amazon Bedrock dans sa réponse. En fonction de votre cas d’utilisation, de la disponibilité des données et de la tâche, votre invite doit combiner un ou plusieurs de ces éléments.
Prenons cet exemple de demande d'invite Titan pour résumer un avis :
User Prompt: The following is text from a restaurant review: “I finally got to check out Alessandro’s Brilliant Pizza and it is now one of my favorite restaurants in Seattle. The dining room has a beautiful view over the Puget Sound but it was surprisingly not crowded. I ordered the fried castelvetrano olives, a spicy Neapolitan-style pizza and a gnocchi dish. The olives were absolutely decadent, and the pizza came with a smoked mozzarella, which was delicious. The gnocchi was fresh and wonderful. The waitstaff were attentive, and overall the experience was lovely. I hope to return soon." Summarize the above restaurant review in one sentence.
(Source du message : AWS)
Sur la base de cette invite, Titan répond par un résumé succinct d'une ligne de la critique du restaurant. L’avis mentionne les faits essentiels et transmet les principaux points, comme vous le souhaitez.
Output: Alessandro's Brilliant Pizza is a fantastic restaurant in Seattle with a beautiful view over Puget Sound, decadent and delicious food, and excellent service.
(Modèle utilisé : Amazon) Titan Texte)
L’instruction Summarize the above restaurant review in one
sentence
et le texte de l’avis I finally got to check out
...
étaient tous deux nécessaires pour ce type de sortie. Sans l’un ou l’autre, le modèle ne disposerait pas de suffisamment d’informations pour produire un résumé sensé. L'instruction indique LLM ce qu'il faut faire, et le texte est l'entrée sur laquelle LLM elle opère. Le contexte (The following is text
from a restaurant review
) fournit des informations supplémentaires et des mots-clés qui guident le modèle pour utiliser l’entrée lors de la formulation de sa sortie.
Dans l'exemple ci-dessous, le texte Context: Climate change threatens people with
increased flooding ...
est l'entrée qu'ils LLM peuvent utiliser pour répondre à la questionQuestion: What
organization calls climate change the greatest threat to global health in the
21st century?”
.
User prompt: Context: Climate change threatens people with increased flooding, extreme heat, increased food and water scarcity, more disease, and economic loss. Human migration and conflict can also be a result. The World Health Organization (WHO) calls climate change the greatest threat to global health in the 21st century. Adapting to climate change through efforts like flood control measures or drought-resistant crops partially reduces climate change risks, although some limits to adaptation have already been reached. Poorer communities are responsible for a small share of global emissions, yet have the least ability to adapt and are most vulnerable to climate change. The expense, time required, and limits of adaptation mean its success hinge on limiting global warming. Question: What organization calls climate change the greatest threat to global health in the 21st century?
(Source de l’invite : https://en.wikipedia.org/wiki/Climate_change)
AI21 Labs Jurassic répond avec le nom correct de l'organisation en fonction du contexte fourni dans l'invite.
Output: The World Health Organization (WHO) calls climate change the greatest threat to global health in the 21st century.
(Modèle utilisé : AI21 Labs Jurassic-2 Ultra v1)
Comparaison des invites avec peu d’exemples et des invites sans exemple
Il est parfois utile de fournir quelques exemples pour LLMs mieux calibrer leur sortie afin de répondre à vos attentes. Cette méthode est également connue sous le nom d'invite en quelques prises ou d'apprentissage contextuel, où une prise de vue correspond à un exemple d'entrée jumelé à la sortie souhaitée. À titre d’illustration, voici d’abord un exemple d’invite de classification du sentiment sans exemple. Autrement dit, aucun exemple de paire entrée/sortie n’est fourni dans le texte de l’invite :
User prompt: Tell me the sentiment of the following headline and categorize it as either positive, negative or neutral: New airline between Seattle and San Francisco offers a great opportunity for both passengers and investors.
(Source du message : AWS)
Output: Positive
(Modèle utilisé : Amazon) Titan Texte)
Voici la version d’une invite de classification du sentiment avec peu d’exemples :
User prompt: Tell me the sentiment of the following headline and categorize it as either positive, negative or neutral. Here are some examples: Research firm fends off allegations of impropriety over new technology. Answer: Negative Offshore windfarms continue to thrive as vocal minority in opposition dwindles. Answer: Positive Manufacturing plant is the latest target in investigation by state officials. Answer:
(Source du message : AWS)
Output: Negative
(Modèle utilisé : Amazon) Titan Texte)
L'exemple suivant utilise Anthropic Claude modèles. Lors de l'utilisation Anthropic Claude modèles, il est recommandé d'utiliser des<example></example> balises pour inclure des exemples de démonstration. Nous vous recommandons également d’utiliser différents délimiteurs tels que H:
et A:
dans les exemples afin d’éviter toute confusion avec les délimiteurs Human:
et Assistant:
pour l’ensemble de l’invite. Notez que pour le dernier exemple, le final A:
est laissé de côté au profit de Assistant:
Anthropic Claude pour générer la réponse à la place.
User prompt: Human: Please classify the given email as "Personal" or "Commercial" related emails. Here are some examples. <example> H: Hi Tom, it's been long time since we met last time. We plan to have a party at my house this weekend. Will you be able to come over? A: Personal </example> <example> H: Hi Tom, we have a special offer for you. For a limited time, our customers can save up to 35% of their total expense when you make reservations within two days. Book now and save money! A: Commercial </example> H: Hi Tom, Have you heard that we have launched all-new set of products. Order now, you will save $100 for the new products. Please check our website. Assistant: Output: Commercial
(Source de l'invite : AWS modèle utilisé : Anthropic Claude)
Modèle d'invite
Un modèle d’invite indique la mise en forme de l’invite avec un contenu échangeable. Les modèles d'invite sont des « recettes » à utiliser LLMs pour différents cas d'utilisation tels que la classification, le résumé, la réponse aux questions, etc. Un modèle d’invite peut inclure des instructions, quelques exemples, ainsi qu’un contexte et des questions spécifiques adaptés à un cas d’utilisation donné. L’exemple suivant est un modèle que vous pouvez utiliser pour effectuer une classification du sentiment avec peu d’exemples à l’aide des modèles de texte Amazon Bedrock :
Prompt template: """Tell me the sentiment of the following {{Text Type, e.g., “restaurant review”}} and categorize it as either {{Sentiment A}} or {{Sentiment B}}. Here are some examples: Text: {{Example Input 1}} Answer: {{Sentiment A}} Text: {{Example Input 2}} Answer: {{Sentiment B}} Text: {{Input}} Answer:"""
Les utilisateurs peuvent copier et coller ce modèle, en saisissant leur propre texte et quelques exemples pour répondre aux instructions lors de l'utilisation sur LLMs Amazon Bedrock. D’autres modèles sont fournis dans cette section.
Note
Les doubles accolades {{ and }}
indiquent les endroits où les informations spécifiques aux données doivent être insérées dans le modèle. Elles ne doivent pas être ajoutées dans le texte d’invite.
Maintenir le rappel des demandes d'inférence d'Amazon Bedrock
Si vous accédez aux modèles Amazon Bedrock par le biais d'APIappels, sachez que les modèles ne se souviennent pas des instructions et des demandes précédentes, sauf si l'interaction précédente est incluse dans l'invite en cours. L'inclusion d'instructions précédentes dans une demande vous permet d'avoir des interactions de type conversationnel ou de faire des demandes de suivi.
Si vous accédez Anthropic Claude modèles utilisant des API appels au lieu du terrain de jeu de texte Amazon Bedrock, vous encapsulez vos instructions dans un style conversationnel pour obtenir la réponse souhaitée (pour le Titan Texte et AI21 Labs Famille de modèles Jurassic, ce n'est pas nécessaire). L’exemple suivant illustre une invite de type conversationnel :
User prompt: Human: Describe where sea otters live in two sentences. Assistant: Output: Here is a two sentence description of where sea otters live: Sea otters live in the northern Pacific Ocean along the coasts of Russia, Alaska, Canada, and the continental United States. They prefer coastal habitats like rocky shores, kelp forests, and estuaries where they have access to shallow, nearshore waters.
(Source de l'invite : AWS modèle utilisé : Anthropic Claude)
Remarquez comment le contenu principal de l’invite est encapsulé : \n\nHuman:
{{Main Content}}\n\nAssistant:
. Dans Anthropic
Claude modèles, les invites envoyées via le API doivent contenir\n\ nHuman : et.
\n\nAssistant:
Pour utiliser le mode conversationnel sur Titan, vous pouvez utiliser le format de User: {{}}
\n Bot:
lorsque vous demandez le modèle.