Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Ejecute API solicitudes de Amazon Bedrock de ejemplo con el AWS Command Line Interface
En esta sección se explica cómo probar algunas operaciones habituales en Amazon Bedrock mediante el AWS CLI para comprobar que los permisos y la autenticación están configurados correctamente. Antes de ejecutar los siguientes ejemplos, debe comprobar que ha cumplido los siguientes requisitos previos:
Requisitos previos
-
Tiene un Cuenta de AWS y tener permisos para acceder a un rol con los permisos necesarios para Amazon Bedrock. De lo contrario, siga los pasos que se indican enYa tengo un Cuenta de AWS.
-
Has solicitado acceso a la Amazon Titan Text G1 - Express modelo. De lo contrario, siga los pasos que se indican enSolicita acceso a un modelo de base Amazon Bedrock.
-
Recibió las claves de acceso de su IAM usuario y configuró un perfil con ellas. De lo contrario, sigue los pasos aplicables a tu caso de uso enObtenga credenciales para conceder acceso programático a un usuario.
Compruebe que sus permisos y claves de acceso estén configurados correctamente para Amazon Bedrock, utilizando el rol de Amazon Bedrock que creó. En estos ejemplos se supone que ha configurado un perfil predeterminado con sus claves de acceso. Tenga en cuenta lo siguiente:
-
Como mínimo, debe configurar un perfil que contenga una AWS ID de clave de acceso y un AWS clave de acceso secreta.
-
Si utilizas credenciales temporales, también debes incluir una AWS token de sesión.
Temas
Enumere los modelos de base que ofrece Amazon Bedrock
En el siguiente ejemplo, se ejecuta la ListFoundationModelsoperación con un punto final de Amazon Bedrock. ListFoundationModels
muestra los modelos de base (FMs) que están disponibles en Amazon Bedrock en su región. En una terminal, ejecute el siguiente comando:
aws bedrock list-foundation-models --region us-east-1
Si el comando se ejecuta correctamente, la respuesta devuelve una lista de modelos de base que están disponibles en Amazon Bedrock.
Envíe un mensaje de texto a un modelo y genere una respuesta de texto con InvokeModel
En el siguiente ejemplo, se ejecuta la InvokeModeloperación mediante un punto de ejecución de Amazon Bedrock. InvokeModel
le permite enviar una solicitud para generar una respuesta modelo. En una terminal, ejecute el siguiente comando:
aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt
Si el comando se ejecuta correctamente, la respuesta generada por el modelo se escribe en el invoke-model-output-text.txt
archivo. La respuesta de texto se devuelve en el outputText
campo, junto con la información correspondiente.
Envía un mensaje de texto a un modelo y genera una respuesta de texto con Converse
En el siguiente ejemplo, se ejecuta la operación de Converse mediante un punto de ejecución de Amazon Bedrock. Converse
le permite enviar un mensaje para generar una respuesta modelo. Recomendamos utilizar Converse
Operation Over InvokeModel
cuando sea compatible, ya que unifica la solicitud de inferencia en todos los modelos de Amazon Bedrock y simplifica la administración de las conversaciones en varios turnos. En una terminal, ejecute el siguiente comando:
aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
Si el comando se ejecuta correctamente, la respuesta generada por el modelo se devuelve en el text
campo, junto con la información correspondiente.