Exécutez des exemples de demandes d'API Amazon Bedrock avec AWS Command Line Interface - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Exécutez des exemples de demandes d'API Amazon Bedrock avec AWS Command Line Interface

Cette section vous explique comment essayer certaines opérations courantes dans Amazon Bedrock en utilisant le AWS CLI pour vérifier que vos autorisations et votre authentification sont correctement configurées. Avant d'exécuter les exemples suivants, vous devez vérifier que vous avez rempli les conditions préalables suivantes :

Prérequis

Vérifiez que vos autorisations sont correctement configurées pour Amazon Bedrock, en utilisant un utilisateur ou un rôle que vous avez configuré avec les autorisations appropriées.

Répertoriez les modèles de base proposés par Amazon Bedrock

L'exemple suivant exécute l'ListFoundationModelsopération à l'aide d'un point de terminaison Amazon Bedrock. ListFoundationModelsrépertorie les modèles de fondation (FMs) disponibles sur Amazon Bedrock dans votre région. Dans un terminal, exécutez la commande suivante :

aws bedrock list-foundation-models --region us-east-1

Si la commande aboutit, la réponse renvoie une liste des modèles de base disponibles sur Amazon Bedrock.

Envoyez une demande de texte à un modèle et générez une réponse textuelle avec InvokeModel

L'exemple suivant exécute l'InvokeModelopération à l'aide d'un point de terminaison Amazon Bedrock. InvokeModelvous permet d'envoyer une invite pour générer un modèle de réponse. Dans un terminal, exécutez la commande suivante :

aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt

Si la commande aboutit, la réponse générée par le modèle est écrite dans le invoke-model-output-text.txt fichier. La réponse textuelle est renvoyée outputText sur le terrain, accompagnée des informations d'accompagnement.

Envoyer une demande de texte à un modèle et générer une réponse textuelle avec Converse

L'exemple suivant exécute l'opération Converse à l'aide d'un point de terminaison Amazon Bedrock. Conversevous permet d'envoyer une invite pour générer un modèle de réponse. Nous recommandons d'utiliser Converse Operation Over InvokeModel lorsqu'il est pris en charge, car cela unifie la demande d'inférence entre les modèles Amazon Bedrock et simplifie la gestion des conversations à plusieurs tours. Dans un terminal, exécutez la commande suivante :

aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'

Si la commande aboutit, la réponse générée par le modèle est renvoyée text sur le terrain, avec les informations qui l'accompagnent.