

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Esegui esempi di richieste API Amazon Bedrock con AWS Command Line Interface
<a name="getting-started-api-ex-cli"></a>

Questa sezione ti guida a provare alcune operazioni comuni in Amazon Bedrock utilizzando il AWS Command Line Interface per verificare che le tue autorizzazioni e l'autenticazione siano configurate correttamente. Prima di eseguire i seguenti esempi, devi verificare di aver soddisfatto i seguenti prerequisiti:

**Prerequisiti**
+ Hai un Account AWS utente o un ruolo con autenticazione configurata e le autorizzazioni necessarie per Amazon Bedrock. In caso contrario, segui le fasi in [Iniziare a utilizzare l’API](getting-started-api.md).
+ Hai installato e configurato l’autenticazione per AWS CLI. Per installare il AWS CLI, segui i passaggi in [Installa o aggiorna alla versione più recente di](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html). AWS CLI Verifica di aver configurato le credenziali per utilizzare la CLI seguendo la procedura indicata alla pagina [Ottenere le credenziali per concedere l’accesso programmatico](getting-started-api.md#gs-grant-program-access).

Verifica che le tue autorizzazioni siano configurate correttamente per Amazon Bedrock, utilizzando un utente o un ruolo che hai configurato con le autorizzazioni appropriate.

**Topics**
+ [Elencare i modelli di fondazione offerti da Amazon Bedrock](#getting-started-api-ex-cli-listfm)
+ [Invia un messaggio di testo a un modello e genera una risposta di testo con InvokeModel](#getting-started-api-ex-cli-invoke-text)
+ [Inviare un prompt di testo a un modello e generare una risposta testuale con Converse](#getting-started-api-ex-cli-converse)

## Elencare i modelli di fondazione offerti da Amazon Bedrock
<a name="getting-started-api-ex-cli-listfm"></a>

L'esempio seguente esegue l'[ListFoundationModels](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListFoundationModels.html)operazione utilizzando AWS CLI. `ListFoundationModels`elenca i modelli base (FMs) disponibili in Amazon Bedrock nella tua regione. In un terminale, esegui il comando riportato qui sotto:

```
aws bedrock list-foundation-models
```

Se il comando ha esito positivo, la risposta restituisce un elenco dei modelli di fondazione disponibili in Amazon Bedrock.

## Invia un messaggio di testo a un modello e genera una risposta di testo con InvokeModel
<a name="getting-started-api-ex-cli-invoke-text"></a>

L'esempio seguente esegue l'[InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)operazione utilizzando. AWS CLI`InvokeModel`consente di inviare un prompt per generare una risposta del modello. In un terminale, esegui il comando riportato qui sotto:

```
aws bedrock-runtime invoke-model \
--model-id amazon.titan-text-express-v1 \
--body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \
--cli-binary-format raw-in-base64-out \
invoke-model-output-text.txt
```

Se il comando ha esito positivo, la risposta generata dal modello viene scritta nel file `invoke-model-output-text.txt`. La risposta testuale viene restituita nel campo `outputText`, insieme alle informazioni di accompagnamento.

## Inviare un prompt di testo a un modello e generare una risposta testuale con Converse
<a name="getting-started-api-ex-cli-converse"></a>

L'esempio seguente esegue l'operazione [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) utilizzando. AWS CLI`Converse`consente di inviare un prompt per generare una risposta del modello. Ti consigliamo di utilizzare l’operazione `Converse` invece di `InvokeModel` quando supportata, perché unifica la richiesta di inferenza tra i modelli di Amazon Bedrock e semplifica la gestione delle conversazioni multi-turno. In un terminale, esegui il comando riportato qui sotto:

```
aws bedrock-runtime converse \
--model-id amazon.titan-text-express-v1 \
--messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \
--inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
```

Se il comando ha esito positivo, la risposta generata dal modello viene restituita nel campo `text`, insieme alle informazioni di accompagnamento.