Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Esegui esempi di API richieste Amazon Bedrock con AWS Command Line Interface
Questa sezione ti guida a provare alcune operazioni comuni in Amazon Bedrock utilizzando il AWS CLI per verificare che le tue autorizzazioni e l'autenticazione siano configurate correttamente. Prima di eseguire i seguenti esempi, dovresti verificare di aver soddisfatto i seguenti prerequisiti:
Prerequisiti
-
Hai un Account AWS utente o un ruolo con autenticazione configurata e le autorizzazioni necessarie per Amazon Bedrock. Altrimenti, segui i passaggi indicati in. Nozioni di base sull'API
-
Hai richiesto l'accesso al Amazon Titan Text G1 - Express modello. Altrimenti, segui i passaggi indicati inRichiedi l'accesso a un modello di base Amazon Bedrock.
-
Hai installato e configurato l'autenticazione per AWS CLI. Per installare ilCLI, segui i passaggi in Installare o aggiornare alla versione più recente di AWS CLI. Verifica di aver configurato le credenziali per l'utilizzo di CLI seguendo la procedura riportata inOttieni le credenziali per concedere l'accesso programmatico.
Verifica che le tue autorizzazioni siano configurate correttamente per Amazon Bedrock, utilizzando un utente o un ruolo che hai configurato con le autorizzazioni appropriate.
Argomenti
Elenca i modelli base offerti da Amazon Bedrock
L'esempio seguente esegue l'ListFoundationModelsoperazione utilizzando un endpoint Amazon Bedrock. ListFoundationModels
elenca i modelli base (FMs) disponibili in Amazon Bedrock nella tua regione. In un terminale, esegui il seguente comando:
aws bedrock list-foundation-models --region us-east-1
Se il comando ha esito positivo, la risposta restituisce un elenco di modelli base disponibili in Amazon Bedrock.
Invia un messaggio di testo a un modello e genera una risposta di testo con InvokeModel
L'esempio seguente esegue l'InvokeModeloperazione utilizzando un endpoint di runtime Amazon Bedrock. InvokeModel
consente di inviare un prompt per generare una risposta modello. In un terminale, esegui il seguente comando:
aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt
Se il comando ha esito positivo, la risposta generata dal modello viene scritta nel invoke-model-output-text.txt
file. La risposta testuale viene restituita nel outputText
campo, insieme alle informazioni di accompagnamento.
Invia un messaggio di testo a un modello e genera una risposta testuale con Converse
L'esempio seguente esegue l'operazione Converse utilizzando un endpoint di runtime Amazon Bedrock. Converse
consente di inviare un prompt per generare una risposta modello. Ti consigliamo di utilizzare Converse
operation over InvokeModel
quando supportato, perché unifica la richiesta di inferenza tra i modelli Amazon Bedrock e semplifica la gestione delle conversazioni a più turni. In un terminale, esegui il seguente comando:
aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
Se il comando ha esito positivo, la risposta generata dal modello viene restituita nel text
campo, insieme alle informazioni di accompagnamento.