View a markdown version of this page

Utilisation de l’API Invoke - Amazon Nova

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Utilisation de l’API Invoke

L'API Invoke fournit un accès direct aux modèles Amazon Nova et permet de mieux contrôler le format des demandes et des réponses. Contrairement à l'API Converse qui extrait les détails spécifiques au modèle, l'API Invoke vous permet de travailler directement avec les structures de demande et de réponse natives du modèle.

Note

L'API Invoke prend en charge les mêmes fonctionnalités que l'API Converse, à l'exception de la modalité de saisie de documents, qui est spécifique à l'API Converse.

Structure de la demande

Une demande d'API Invoke nécessite l'ID du modèle et un corps de requête JSON :

import boto3 import json bedrock = boto3.client('bedrock-runtime', region_name='us-east-1') request_body = { 'messages': [ { 'role': 'user', 'content': [{'text': 'What is machine learning?'}] } ], 'inferenceConfig': { 'maxTokens': 512, 'temperature': 0.7 } } response = bedrock.invoke_model( modelId='us.amazon.nova-2-lite-v1:0', body=json.dumps(request_body) ) response_body = json.loads(response['body'].read()) content_list = response_body["output"]["message"]["content"] # Extract the first text block text_block = next((item for item in content_list if "text" in item), None) if text_block is not None: print(text_block["text"])

Paramètres de demande

L'API Invoke prend en charge les paramètres clés suivants :

  • messages: ensemble de messages de conversation avec rôle et contenu

  • system: demande de contexte et d'instructions facultative du système

  • inferenceConfig: Paramètres contrôlant la sortie du modèle (temperature, MaxTokens, TopP, TopK, StopSequences, ReasoningConfig)

  • toolConfig: Spécifications de l'outil et choix de l'outil pour l'appel de fonctions