Che cos'è un prompt? - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Che cos'è un prompt?

I prompt sono un insieme specifico di input forniti da te, l'utente, che guida su LLMs Amazon Bedrock per generare una risposta o un output appropriato per una determinata attività o istruzione.

User Prompt: Who invented the airplane?

Quando richiesto da questo prompt, Titan fornisce un output:

Output: The Wright brothers, Orville and Wilbur Wright are widely credited with inventing and manufacturing the world's first successful airplane.

(Fonte del prompt: AWS, modello utilizzato: Amazon Titan Testo)

Componenti di un prompt

Un singolo prompt include diversi componenti, come l'attività o l'istruzione che desideri venga eseguita, il contesto dell'attività (ad esempio, una descrizione del dominio pertinente), esempi dimostrativi e il testo di input che desideri che LLMs Amazon Bedrock utilizzi nella sua risposta. LLMs A seconda del caso d'uso, della disponibilità dei dati e dell'attività, il prompt dovrebbe combinare uno o più di questi componenti.

Prendi in considerazione questo esempio: prompt asking Titan per riassumere una recensione:

User Prompt: The following is text from a restaurant review: “I finally got to check out Alessandro’s Brilliant Pizza and it is now one of my favorite restaurants in Seattle. The dining room has a beautiful view over the Puget Sound but it was surprisingly not crowded. I ordered the fried castelvetrano olives, a spicy Neapolitan-style pizza and a gnocchi dish. The olives were absolutely decadent, and the pizza came with a smoked mozzarella, which was delicious. The gnocchi was fresh and wonderful. The waitstaff were attentive, and overall the experience was lovely. I hope to return soon." Summarize the above restaurant review in one sentence.

(Fonte del prompt:) AWS

In base a questo prompt, Titan risponde con un breve riassunto di una riga della recensione del ristorante. La recensione menziona i fatti fondamentali e illustra i punti principali, come desiderato.

Output: Alessandro's Brilliant Pizza is a fantastic restaurant in Seattle with a beautiful view over Puget Sound, decadent and delicious food, and excellent service.

(Modello utilizzato: Amazon Titan Testo)

L'istruzione Summarize the above restaurant review in one sentence e il testo della recensione I finally got to check out ... erano entrambi necessari per questo tipo di output. Senza uno dei due, il modello non avrebbe informazioni sufficienti per produrre un riepilogo sensato. L'istruzione dice LLM cosa fare e il testo è l'input su cui LLM opera. Il contesto (The following is text from a restaurant review) fornisce informazioni e parole chiave aggiuntive che indicano al modello come utilizzare l'input nella formulazione dell'output.

Nell'esempio seguente, il testo Context: Climate change threatens people with increased flooding ... è l'input che è LLM possibile utilizzare per eseguire l'operazione di risposta alla domandaQuestion: What organization calls climate change the greatest threat to global health in the 21st century?”.

User prompt: Context: Climate change threatens people with increased flooding, extreme heat, increased food and water scarcity, more disease, and economic loss. Human migration and conflict can also be a result. The World Health Organization (WHO) calls climate change the greatest threat to global health in the 21st century. Adapting to climate change through efforts like flood control measures or drought-resistant crops partially reduces climate change risks, although some limits to adaptation have already been reached. Poorer communities are responsible for a small share of global emissions, yet have the least ability to adapt and are most vulnerable to climate change. The expense, time required, and limits of adaptation mean its success hinge on limiting global warming. Question: What organization calls climate change the greatest threat to global health in the 21st century?

(origine del prompt: https://en.wikipedia.org/wiki/Climate_change)

AI21 Labs Risposte Jurassic con il nome corretto dell'organizzazione in base al contesto fornito nel prompt.

Output: The World Health Organization (WHO) calls climate change the greatest threat to global health in the 21st century.

(Modello utilizzato: AI21 Labs Jurassic-2 Ultra v1)

Prompt few-shot e prompt zero-shot

A volte è utile fornire alcuni esempi per calibrare LLMs meglio l'output e soddisfare le aspettative, una procedura nota anche come few-shot prompting o in-context learning, in cui una ripresa corrisponde a una coppia di input di esempio e all'output desiderato. Per spiegare questo approccio, ecco anzitutto un esempio di prompt zero-shot per la classificazione del sentiment, il cui testo non contiene alcuna coppia di input-output di esempio:

User prompt: Tell me the sentiment of the following headline and categorize it as either positive, negative or neutral: New airline between Seattle and San Francisco offers a great opportunity for both passengers and investors.

(Fonte del messaggio:) AWS

Output: Positive

(Modello utilizzato: Amazon Titan Testo)

Ecco la versione few-shot di un prompt per la classificazione del sentiment:

User prompt: Tell me the sentiment of the following headline and categorize it as either positive, negative or neutral. Here are some examples: Research firm fends off allegations of impropriety over new technology. Answer: Negative Offshore windfarms continue to thrive as vocal minority in opposition dwindles. Answer: Positive Manufacturing plant is the latest target in investigation by state officials. Answer:

(Fonte del prompt: AWS)

Output: Negative

(Modello utilizzato: Amazon Titan Testo)

L'esempio seguente utilizza Anthropic Claude modelli. Quando si utilizza Anthropic Claude modelli, è buona norma utilizzare i<example></example> tag per includere esempi dimostrativi. Consigliamo inoltre di utilizzare negli esempi delimitatori diversi, ad esempio H: e A:, per evitare confusione con i delimitatori Human: e Assistant: per l'intero prompt. Notate che per gli ultimi esempi con pochi esempi, la finale A: viene lasciata disattivata a favore di, prompting Assistant: Anthropic Claude per generare invece la risposta.

User prompt: Human: Please classify the given email as "Personal" or "Commercial" related emails. Here are some examples. <example> H: Hi Tom, it's been long time since we met last time. We plan to have a party at my house this weekend. Will you be able to come over? A: Personal </example> <example> H: Hi Tom, we have a special offer for you. For a limited time, our customers can save up to 35% of their total expense when you make reservations within two days. Book now and save money! A: Commercial </example> H: Hi Tom, Have you heard that we have launched all-new set of products. Order now, you will save $100 for the new products. Please check our website. Assistant: Output: Commercial

(Fonte del prompt: AWS, modello utilizzato: Anthropic Claude)

Modello di prompt

Un modello di prompt specifica la formattazione del prompt con contenuti intercambiabili. I modelli di prompt sono «ricette» da utilizzare LLMs per diversi casi d'uso come classificazione, riepilogo, risposta a domande e altro ancora. Un modello di prompt può includere istruzioni ed esempi few-shot, nonché domande e contesti specifici appropriati per un determinato caso d'uso. L'esempio seguente è un modello che consente di eseguire la classificazione few-shot del sentiment utilizzando i modelli di testo di Amazon Bedrock:

Prompt template: """Tell me the sentiment of the following {{Text Type, e.g., “restaurant review”}} and categorize it as either {{Sentiment A}} or {{Sentiment B}}. Here are some examples: Text: {{Example Input 1}} Answer: {{Sentiment A}} Text: {{Example Input 2}} Answer: {{Sentiment B}} Text: {{Input}} Answer:"""

Gli utenti possono copiare e incollare questo modello, inserendo il proprio testo e alcuni esempi per completare le istruzioni quando lo utilizzano su LLMs Amazon Bedrock. In questa sezione vengono forniti altri modelli.

Nota

Le doppie parentesi graffe {{ and }} indicano i punti in cui inserire informazioni specifiche sui dati nel modello. Non devono essere incluse nel testo del prompt.

Mantieni il richiamo sulle richieste di inferenza di Amazon Bedrock

Se accedi ai modelli Amazon Bedrock utilizzando API le chiamate, tieni presente che i modelli non richiamano i prompt e le richieste precedenti, a meno che l'interazione precedente non sia inclusa nel prompt corrente. L'inclusione dei prompt precedenti in una richiesta consente di avere interazioni di tipo colloquiale o effettuare richieste di follow-up.

Se stai accedendo Anthropic Claude i modelli che utilizzano API le chiamate anziché il campo di testo di Amazon Bedrock, inseriscono le istruzioni in uno stile colloquiale per ottenere la risposta desiderata (per Titan Testo e AI21 Labs Famiglia di modelli Jurassic, non è necessario). Nell'esempio seguente viene mostrato un prompt di tipo colloquiale:

User prompt: Human: Describe where sea otters live in two sentences. Assistant: Output: Here is a two sentence description of where sea otters live: Sea otters live in the northern Pacific Ocean along the coasts of Russia, Alaska, Canada, and the continental United States. They prefer coastal habitats like rocky shores, kelp forests, and estuaries where they have access to shallow, nearshore waters.

(Fonte del prompt: AWS, modello utilizzato: Anthropic Claude)

Puoi notare che i contenuti principali del prompt sono racchiusi in questo modo: \n\nHuman: {{Main Content}}\n\nAssistant:. In Anthropic Claude i modelli, i prompt inviati tramite API devono contenere\n\: e. nHuman \n\nAssistant:

Per utilizzare la modalità conversazionale su Titan, è possibile utilizzare il formato di User: {{}} \n Bot: quando si richiede il modello.