

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Ejecute solicitudes de API de Amazon Bedrock de ejemplo con AWS Command Line Interface
<a name="getting-started-api-ex-cli"></a>

En esta sección, se explica cómo probar algunas operaciones habituales en Amazon Bedrock AWS Command Line Interface para comprobar que los permisos y la autenticación están configurados correctamente. Antes de ejecutar los siguientes ejemplos, debe comprobar que cumple los requisitos previos que se indican a continuación:

**Requisitos previos**
+ Tiene un Cuenta de AWS usuario o rol con la autenticación configurada y los permisos necesarios para Amazon Bedrock. De lo contrario, siga estos pasos en [Introducción a la API](getting-started-api.md).
+ Ha instalado y configurado la autenticación para la AWS CLI. Para instalar el AWS CLI, siga los pasos que se indican en [Instalar o actualizar a la versión más reciente del AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html). Compruebe que ha configurado sus credenciales para usar la CLI siguiendo los pasos que se indican en [Obtención de credenciales para conceder acceso programático](getting-started-api.md#gs-grant-program-access).

Compruebe que sus permisos estén configurados correctamente para Amazon Bedrock con un usuario o rol que haya configurado con los permisos adecuados.

**Topics**
+ [Enumeración de los modelos fundacionales que ofrece Amazon Bedrock](#getting-started-api-ex-cli-listfm)
+ [Envíe un mensaje de texto a una modelo y genere una respuesta de texto con InvokeModel](#getting-started-api-ex-cli-invoke-text)
+ [Envío de una petición de texto a un modelo y generación de una respuesta de texto con Converse](#getting-started-api-ex-cli-converse)

## Enumeración de los modelos fundacionales que ofrece Amazon Bedrock
<a name="getting-started-api-ex-cli-listfm"></a>

En el siguiente ejemplo, se ejecuta la [ListFoundationModels](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListFoundationModels.html)operación mediante AWS CLI. `ListFoundationModels`muestra los modelos de base (FMs) que están disponibles en Amazon Bedrock en su región. En un terminal, ejecute el siguiente comando:

```
aws bedrock list-foundation-models
```

Si el comando se ejecuta correctamente, la respuesta devuelve una lista de modelos fundacionales que están disponibles en Amazon Bedrock.

## Envíe un mensaje de texto a una modelo y genere una respuesta de texto con InvokeModel
<a name="getting-started-api-ex-cli-invoke-text"></a>

En el siguiente ejemplo, se ejecuta la [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)operación mediante AWS CLI. `InvokeModel`permite enviar una solicitud para generar una respuesta modelo. En un terminal, ejecute el siguiente comando:

```
aws bedrock-runtime invoke-model \
--model-id amazon.titan-text-express-v1 \
--body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \
--cli-binary-format raw-in-base64-out \
invoke-model-output-text.txt
```

Si el comando se ejecuta correctamente, la respuesta generada por el modelo se escribe en el archivo `invoke-model-output-text.txt`. La respuesta de texto se devuelve en el campo `outputText`, junto con la información correspondiente.

## Envío de una petición de texto a un modelo y generación de una respuesta de texto con Converse
<a name="getting-started-api-ex-cli-converse"></a>

En el siguiente ejemplo, [se ejecuta la operación de conversión](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) mediante. AWS CLI`Converse`permite enviar una solicitud para generar una respuesta modelo. Recomendamos utilizar la operación `Converse` en lugar de `InvokeModel` cuando sea compatible, ya que unifica la solicitud de inferencia en todos los modelos de Amazon Bedrock y simplifica la administración de las conversaciones en varios turnos. En un terminal, ejecute el siguiente comando:

```
aws bedrock-runtime converse \
--model-id amazon.titan-text-express-v1 \
--messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \
--inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
```

Si el comando se ejecuta correctamente, la respuesta generada por el modelo se devuelve en el campo `text`, junto con la información correspondiente.