Esegui esempi di API richieste Amazon Bedrock con AWS Command Line Interface - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Esegui esempi di API richieste Amazon Bedrock con AWS Command Line Interface

Questa sezione ti guida a provare alcune operazioni comuni in Amazon Bedrock utilizzando AWS CLI per verificare che le autorizzazioni e l'autenticazione siano configurate correttamente. Prima di eseguire i seguenti esempi, è necessario verificare di aver soddisfatto i seguenti prerequisiti:

Prerequisiti

Verifica che le autorizzazioni e le chiavi di accesso siano configurate correttamente per Amazon Bedrock, utilizzando il ruolo Amazon Bedrock che hai creato. Questi esempi presuppongono che tu abbia configurato un profilo predefinito con le tue chiavi di accesso. Tieni presente quanto segue:

  • Come minimo, è necessario configurare un profilo contenente un AWS ID della chiave di accesso e un AWS chiave di accesso segreta.

  • Se utilizzi credenziali temporanee, devi includere anche un AWS token di sessione.

Elenca i modelli base che Amazon Bedrock ha da offrire

L'esempio seguente esegue l'ListFoundationModelsoperazione utilizzando un endpoint Amazon Bedrock. ListFoundationModelselenca i modelli base (FMs) disponibili in Amazon Bedrock nella tua regione. In un terminale, esegui il seguente comando:

aws bedrock list-foundation-models --region us-east-1

Se il comando ha esito positivo, la risposta restituisce un elenco di modelli base disponibili in Amazon Bedrock.

Invia un messaggio di testo a un modello e genera una risposta di testo con InvokeModel

L'esempio seguente esegue l'InvokeModeloperazione utilizzando un endpoint di runtime Amazon Bedrock. InvokeModelconsente di inviare un prompt per generare una risposta modello. In un terminale, esegui il seguente comando:

aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt

Se il comando ha esito positivo, la risposta generata dal modello viene scritta nel invoke-model-output-text.txt file. La risposta testuale viene restituita nel outputText campo, insieme alle informazioni di accompagnamento.

Invia un messaggio di testo a un modello e genera una risposta testuale con Converse

L'esempio seguente esegue l'operazione Converse utilizzando un endpoint di runtime Amazon Bedrock. Converseconsente di inviare un prompt per generare una risposta modello. Ti consigliamo di utilizzare Converse operation over InvokeModel quando supportato, perché unifica la richiesta di inferenza tra i modelli Amazon Bedrock e semplifica la gestione delle conversazioni a più turni. In un terminale, esegui il seguente comando:

aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'

Se il comando ha esito positivo, la risposta generata dal modello viene restituita nel text campo, insieme alle informazioni di accompagnamento.