Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Exécutez des exemples de demandes d'API Amazon Bedrock avec AWS Command Line Interface
Cette section vous explique comment essayer certaines opérations courantes dans Amazon Bedrock en utilisant le AWS CLI pour vérifier que vos autorisations et votre authentification sont correctement configurées. Avant d'exécuter les exemples suivants, vous devez vérifier que vous avez rempli les conditions préalables suivantes :
Prérequis
-
Vous avez un Compte AWS utilisateur ou un rôle avec l'authentification configurée et les autorisations nécessaires pour Amazon Bedrock. Dans le cas contraire, suivez les étapes indiquées àDémarrez avec l'API .
-
Vous avez demandé l'accès au Amazon Titan Text G1 - Express modèle. Dans le cas contraire, suivez les étapes indiquées àDemandez l'accès à un modèle de fondation Amazon Bedrock.
-
Vous avez installé et configuré l'authentification pour AWS CLI. Pour installer la CLI, suivez les étapes décrites dans la section Installer ou mettre à jour vers la dernière version du AWS CLI. Vérifiez que vous avez configuré vos informations d'identification pour utiliser la CLI en suivant les étapes décrites dansObtenez des informations d'identification pour accorder un accès programmatique.
Vérifiez que vos autorisations sont correctement configurées pour Amazon Bedrock, en utilisant un utilisateur ou un rôle que vous avez configuré avec les autorisations appropriées.
Rubriques
Répertoriez les modèles de base proposés par Amazon Bedrock
L'exemple suivant exécute l'ListFoundationModelsopération à l'aide d'un point de terminaison Amazon Bedrock. ListFoundationModels
répertorie les modèles de fondation (FMs) disponibles sur Amazon Bedrock dans votre région. Dans un terminal, exécutez la commande suivante :
aws bedrock list-foundation-models --region us-east-1
Si la commande aboutit, la réponse renvoie une liste des modèles de base disponibles sur Amazon Bedrock.
Envoyez une demande de texte à un modèle et générez une réponse textuelle avec InvokeModel
L'exemple suivant exécute l'InvokeModelopération à l'aide d'un point de terminaison Amazon Bedrock. InvokeModel
vous permet d'envoyer une invite pour générer un modèle de réponse. Dans un terminal, exécutez la commande suivante :
aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt
Si la commande aboutit, la réponse générée par le modèle est écrite dans le invoke-model-output-text.txt
fichier. La réponse textuelle est renvoyée outputText
sur le terrain, accompagnée des informations d'accompagnement.
Envoyer une demande de texte à un modèle et générer une réponse textuelle avec Converse
L'exemple suivant exécute l'opération Converse à l'aide d'un point de terminaison Amazon Bedrock. Converse
vous permet d'envoyer une invite pour générer un modèle de réponse. Nous recommandons d'utiliser Converse
Operation Over InvokeModel
lorsqu'il est pris en charge, car cela unifie la demande d'inférence entre les modèles Amazon Bedrock et simplifie la gestion des conversations à plusieurs tours. Dans un terminal, exécutez la commande suivante :
aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
Si la commande aboutit, la réponse générée par le modèle est renvoyée text
sur le terrain, avec les informations qui l'accompagnent.