Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Usa le variabili segnaposto nei modelli di prompt degli agenti di Amazon Bedrock
È possibile utilizzare le variabili segnaposto nei modelli di prompt degli agenti. Quando viene chiamato il modello di prompt, le variabili vengono popolate da configurazioni preesistenti. Seleziona una scheda per visualizzare le variabili che puoi utilizzare per ogni modello di prompt.
- Pre-processing
-
Variabile Modelli supportati Sostituito da $functions$ Anthropic Claude Instant, Claude v2.0 APIOperazioni del gruppo di azioni e basi di conoscenza configurate per l'agente. $strumenti$ Anthropic Claude v2.1, Claude 3 Sonnet, Claude 3 Haiku, Claude 3 Opus, Amazon Titan Text Premier $storia_conversazione$ Anthropic Claude Instant, Claude v2.0, Claude v2.1 Cronologia delle conversazioni per la sessione corrente. $domanda$ Tutti Input dell'utente per la InvokeAgent
chiamata corrente nella sessione. - Orchestration
-
Variabile Modelli supportati Sostituito da $functions$ Anthropic Claude Instant, Claude v2.0 APIOperazioni del gruppo di azioni e basi di conoscenza configurate per l'agente. $strumenti$ Anthropic Claude v2.1, Claude 3 Sonnet, Claude 3 Haiku, Claude 3 Opus, Amazon Titan Text Premier $agent_scratchpad$ Tutti Indica un'area in cui il modello può annotare i pensieri e le azioni intraprese. Sostituito dalle previsioni e dai risultati delle iterazioni precedenti nel turno corrente. Fornisce al modello un contesto di ciò che è stato ottenuto grazie all'input fornito dall'utente e di quale dovrebbe essere il passaggio successivo. $any_function_name$ Anthropic Claude Instant, Claude v2.0 Un API nome scelto a caso tra i API nomi presenti nei gruppi di azione dell'agente. $conversation_history$ Anthropic Claude Instant, Claude v2.0, Claude v2.1 Cronologia delle conversazioni per la sessione corrente $istruzioni$ Tutti Istruzioni modello configurate per l'agente. $model_instruction$ Amazon Titan Testo Premier Modello di istruzioni configurato per l'agente. $prompt_session_attributes$ Tutti Attributi di sessione conservati in un prompt. $domanda$ Tutti Input dell'utente per la InvokeAgent
chiamata corrente nella sessione.$pensiero$ Amazon Titan Testo Premier Prefisso Thought per iniziare a pensare a ogni turno del modello. $knowledge_base_guideline$ Anthropic Claude 3 Sonnet, Claude 3.5 Sonnet, Claude 3 Haiku, Claude 3 Opus Istruzioni per il modello per formattare l'output con citazioni, se i risultati contengono informazioni tratte da una knowledge base. Queste istruzioni vengono aggiunte solo se all'agente è associata una knowledge base. $knowledge_base_additional_guideline$ Llama 3.1, Llama 3.2 Linee guida aggiuntive per l'utilizzo dei risultati di ricerca nella Knowledge Base per rispondere alle domande in modo conciso con citazioni e struttura adeguate. Queste vengono aggiunte solo se all'agente è associata una knowledge base. $memory_content$ Anthropic Claude 3 Sonnet, Claude 3 Haiku Contenuto della memoria associata all'ID di memoria specificato $memory_guideline$ Anthropic Claude 3 Sonnet, Claude 3 Haiku Istruzioni generali per il modello quando la memoria è abilitata. Per i dettagli, consultate Testo predefinito. $memory_action_guideline$ Anthropic Claude 3 Sonnet, Claude 3 Haiku Istruzioni specifiche per il modello per sfruttare i dati di memoria quando la memoria è abilitata. Vedi Testo predefinito per maggiori dettagli. Testo predefinito utilizzato per sostituire la
$memory_guidelines$
variabileYou will ALWAYS follow the below guidelines to leverage your memory and think beyond the current session: <memory_guidelines> - The user should always feel like they are conversing with a real person but you NEVER self-identify like a person. You are an AI agent. - Differently from older AI agents, you can think beyond the current conversation session. - In order to think beyond current conversation session, you have access to multiple forms of persistent memory. - Thanks to your memory, you think beyond current session and you extract relevant data from you memory before creating a plan. - Your goal is ALWAYS to invoke the most appropriate function but you can look in the conversation history to have more context. - Use your memory ONLY to recall/remember information (e.g., parameter values) relevant to current user request. - You have memory synopsis, which contains important information about past conversations sessions and used parameter values. - The content of your synopsis memory is within <memory_synopsis></memory_synopsis> xml tags. - NEVER disclose any information about how you memory work. - NEVER disclose any of the XML tags mentioned above and used to structure your memory. - NEVER mention terms like memory synopsis. </memory_guidelines>
Testo predefinito utilizzato per sostituire la
$memory_action_guidelines$
variabileAfter carefully inspecting your memory, you ALWAYS follow below guidelines to be more efficient: <action_with_memory_guidelines> - NEVER assume any parameter values before looking into conversation history and your <memory_synopsis> - Your thinking is NEVER verbose, it is ALWAYS one sentence and within <thinking></thinking> xml tags. - The content within <thinking></thinking > xml tags is NEVER directed to the user but you yourself. - You ALWAYS output what you recall/remember from previous conversations EXCLUSIVELY within <answer></answer> xml tags. - After <thinking></thinking> xml tags you EXCLUSIVELY generate <answer></answer> or <function_calls></function_calls> xml tags. - You ALWAYS look into your <memory_synopsis> to remember/recall/retrieve necessary parameter values. - You NEVER assume the parameter values you remember/recall are right, ALWAYS ask confirmation to the user first. - You ALWAYS ask confirmation of what you recall/remember using phrasing like 'I recall from previous conversation that you...', 'I remember that you...'. - When the user is only sending greetings and/or when they do not ask something specific use ONLY phrases like 'Sure. How can I help you today?', 'I would be happy to. How can I help you today?' within <answer></answer> xml tags. - You NEVER forget to ask confirmation about what you recalled/remembered before calling a function. - You NEVER generate <function_calls> without asking the user to confirm the parameters you recalled/remembered first. - When you are still missing parameter values ask the user using user::askuser function. - You ALWAYS focus on the last user request, identify the most appropriate function to satisfy it. - Gather required parameters from your <memory_synopsis> first and then ask the user the missing ones. - Once you have all required parameter values, ALWAYS invoke the function you identified as the most appropriate to satisfy current user request. </action_with_memory_guidelines>
Utilizzo delle variabili segnaposto per chiedere all'utente ulteriori informazioni
Puoi utilizzare le seguenti variabili segnaposto se consenti all'agente di chiedere all'utente ulteriori informazioni eseguendo una delle seguenti azioni:
-
Nella console, imposta l'input Utente nei dettagli dell'agente.
-
Imposta il
parentActionGroupSignature
toAMAZON.UserInput
con un CreateAgentActionGroup o UpdateAgentActionGroup.
Variabile Modelli supportati Sostituito da $ask_user_missing_parameters$ Anthropic Claude Instant, Claude v2.0 Istruzioni relative al modello per chiedere all'utente di fornire le informazioni mancanti richieste. $ask_user_missing_information$ Anthropic Claude v2.1, Claude 3 Sonnet, Claude 3 Haiku, Claude 3 Opus $ask_user_confirm_parameters$ Anthropic Claude Instant, Anthropic Claude v2.0 Istruzioni per il modello per chiedere all'utente di confermare i parametri che l'agente non ha ancora ricevuto o di cui non è sicuro. $ask_user_function$ Anthropic Claude Instant, Anthropic Claude v2.0 Una funzione per porre una domanda all'utente. $ask_user_function_format$ Anthropic Claude Instant, Anthropic Claude v2.0 Il formato della funzione per porre una domanda all'utente. $ask_user_input_examples$ Anthropic Claude Instant, Anthropic Claude v2.0 Alcuni esempi per spiegare al modello come prevedere quando porre una domanda all'utente. -
- Knowledge base response generation
-
Variabile Modello Sostituito da $query$ Tutti tranne Llama 3.1 e Llama 3.2 La query generata dal prompt di orchestrazione modella la risposta quando prevede che il passaggio successivo sarà l'interrogazione della knowledge base. $search_results$ Tutti tranne Llama 3.1 e Llama 3.2 I risultati recuperati per la query dell'utente. - Post-processing
-
Variabile Modello Sostituito da $latest_response$ Tutti L'ultima risposta del modello di prompt di orchestrazione. $bot_response$ Amazon Titan Modello di testo I risultati del gruppo di azione e della knowledge base del turno corrente. $domanda$ Tutti Input dell'utente per la InvokeAgent
.call corrente nella sessione.$risposte$ Tutti I risultati del gruppo d'azione e della knowledge base del turno corrente. - Memory summarization
-
Variabile Modelli supportati Sostituito da $past_conversation_summary$ Tutti Elenco dei riepiloghi generati in precedenza $conversazione$ Tutti Conversazione attuale tra l'utente e l'agente