Ejecute API solicitudes de Amazon Bedrock de ejemplo con AWS Command Line Interface - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Ejecute API solicitudes de Amazon Bedrock de ejemplo con AWS Command Line Interface

En esta sección, se explica cómo probar algunas operaciones habituales en Amazon Bedrock AWS CLI para comprobar que los permisos y la autenticación están configurados correctamente. Antes de ejecutar los siguientes ejemplos, debe comprobar que cumple los requisitos previos que se indican a continuación:

Requisitos previos

Compruebe que sus permisos estén configurados correctamente para Amazon Bedrock, utilizando un usuario o rol que haya configurado con los permisos adecuados.

Enumeración de los modelos fundacionales que ofrece Amazon Bedrock

En el siguiente ejemplo, se ejecuta la ListFoundationModelsoperación con un punto final de Amazon Bedrock. ListFoundationModelsmuestra los modelos de base (FMs) que están disponibles en Amazon Bedrock en su región. En un terminal, ejecute el siguiente comando:

aws bedrock list-foundation-models --region us-east-1

Si el comando se ejecuta correctamente, la respuesta devuelve una lista de modelos fundacionales que están disponibles en Amazon Bedrock.

Envíe un mensaje de texto a una modelo y genere una respuesta de texto con InvokeModel

En el siguiente ejemplo, se ejecuta la InvokeModeloperación mediante un punto de ejecución de Amazon Bedrock. InvokeModelle permite enviar una solicitud para generar una respuesta modelo. En un terminal, ejecute el siguiente comando:

aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt

Si el comando se ejecuta correctamente, la respuesta generada por el modelo se escribe en el archivo invoke-model-output-text.txt. La respuesta de texto se devuelve en el campo outputText, junto con la información correspondiente.

Envío de una petición de texto a un modelo y generación de una respuesta de texto con Converse

En el siguiente ejemplo se ejecuta la operación Converse con un punto de conexión en tiempo de ejecución de Amazon Bedrock. Converse le permite enviar una petición para generar una respuesta del modelo. Recomendamos utilizar la operación Converse en lugar de InvokeModel cuando sea compatible, ya que unifica la solicitud de inferencia en todos los modelos de Amazon Bedrock y simplifica la administración de las conversaciones en varios turnos. En un terminal, ejecute el siguiente comando:

aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'

Si el comando se ejecuta correctamente, la respuesta generada por el modelo se devuelve en el campo text, junto con la información correspondiente.