Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Ejecute API solicitudes de Amazon Bedrock de ejemplo con AWS Command Line Interface
En esta sección, se explica cómo probar algunas operaciones habituales en Amazon Bedrock AWS CLI para comprobar que los permisos y la autenticación están configurados correctamente. Antes de ejecutar los siguientes ejemplos, debe comprobar que cumple los requisitos previos que se indican a continuación:
Requisitos previos
-
Tiene un Cuenta de AWS usuario o rol con la autenticación configurada y los permisos necesarios para Amazon Bedrock. De lo contrario, siga estos pasos en Introducción a la API de .
-
Ha solicitado acceso al Amazon Titan Text G1 - Express modelo. De lo contrario, siga estos pasos en Solicitud de acceso a un modelo fundacional de Amazon Bedrock.
-
Ha instalado y configurado la autenticación para AWS CLI. Para instalar la CLI, siga los pasos que se indican en Install or update to the latest version of the AWS CLI. Compruebe que ha configurado sus credenciales para utilizarlas CLI siguiendo los pasos que se indican enObtenga credenciales para conceder acceso programático.
Compruebe que sus permisos estén configurados correctamente para Amazon Bedrock, utilizando un usuario o rol que haya configurado con los permisos adecuados.
Temas
Enumeración de los modelos fundacionales que ofrece Amazon Bedrock
En el siguiente ejemplo, se ejecuta la ListFoundationModelsoperación con un punto final de Amazon Bedrock. ListFoundationModels
muestra los modelos de base (FMs) que están disponibles en Amazon Bedrock en su región. En un terminal, ejecute el siguiente comando:
aws bedrock list-foundation-models --region us-east-1
Si el comando se ejecuta correctamente, la respuesta devuelve una lista de modelos fundacionales que están disponibles en Amazon Bedrock.
Envíe un mensaje de texto a una modelo y genere una respuesta de texto con InvokeModel
En el siguiente ejemplo, se ejecuta la InvokeModeloperación mediante un punto de ejecución de Amazon Bedrock. InvokeModel
le permite enviar una solicitud para generar una respuesta modelo. En un terminal, ejecute el siguiente comando:
aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt
Si el comando se ejecuta correctamente, la respuesta generada por el modelo se escribe en el archivo invoke-model-output-text.txt
. La respuesta de texto se devuelve en el campo outputText
, junto con la información correspondiente.
Envío de una petición de texto a un modelo y generación de una respuesta de texto con Converse
En el siguiente ejemplo se ejecuta la operación Converse con un punto de conexión en tiempo de ejecución de Amazon Bedrock. Converse
le permite enviar una petición para generar una respuesta del modelo. Recomendamos utilizar la operación Converse
en lugar de InvokeModel
cuando sea compatible, ya que unifica la solicitud de inferencia en todos los modelos de Amazon Bedrock y simplifica la administración de las conversaciones en varios turnos. En un terminal, ejecute el siguiente comando:
aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
Si el comando se ejecuta correctamente, la respuesta generada por el modelo se devuelve en el campo text
, junto con la información correspondiente.