Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Invoquer les modèles de compréhension d'Amazon Nova

Mode de mise au point
Invoquer les modèles de compréhension d'Amazon Nova - Amazon Nova

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les modèles de compréhension multimodaux d'Amazon Nova peuvent être utilisés pour l'inférence via l'API Invoke (InvokeModel, InvokeModelWithResponseStream) et l'API Converse (Converse et). ConverseStream Pour créer des applications conversationnelles, voir Mener une conversation avec les opérations de l'API inverse. Les deux méthodes d'API (Invoke et Converse) suivent un modèle de demande très similaire, comme indiqué ci-dessous

Les principales différences entre l'API Invoke et l'API Converse sont les suivantes :

  • Les paramètres d'inférence tels que TopK ne sont pas pris en charge dans Converse et doivent être transmisadditionalModelRequestFields, tandis que dans l'API Invoke, ils peuvent être transmis directement dans les paramètres d'inférence.

  • Le support des documents est limité à l'API Converse et n'est pas pris en charge dans l'API Invoke.

  • Les formats d'analyse des réponses sont différents entre les constructions de l'API Invoke et de l'API Converse.

  • Le streaming de réponses est différent entre ConverseStream etInvokeModelWithStreaming.

Présentation de l'API Messages

Les modèles Amazon Nova Understanding utilisent l'API Messages, qui permet de soumettre des listes structurées de messages d'entrée contenant du texte, des images, des vidéos et des documents. Le modèle génère ensuite le message suivant de la conversation. L'API Messages prend en charge à la fois les requêtes uniques et les conversations à plusieurs tours sans état, ce qui permet de créer des chatbots et des applications d'assistant virtuel. L'API gère les échanges conversationnels entre un utilisateur et un modèle Amazon Nova (assistant).

Les modèles Amazon Nova sont formés pour fonctionner en alternant les conversations entre l'utilisateur et l'assistant. Lorsque vous créez un nouveau message, vous spécifiez les tournants de conversation précédents à l'aide du paramètre messages. Le modèle génère ensuite les messages suivants de la conversation.

Chaque message d'entrée doit être un objet contenant un rôle et un contenu. Les utilisateurs peuvent spécifier un seul message avec le rôle d'utilisateur ou inclure plusieurs messages avec les rôles d'utilisateur et d'assistant. Toutefois, le premier message doit toujours utiliser le rôle d'utilisateur. Si la technique consistant à préremplir la réponse d'Amazon Nova est utilisée (en incluant un message final avec le rôle d'assistant), le modèle poursuivra sa réponse à partir du contenu fourni. Cette approche se traduira toujours par une réponse avec le rôle d'assistant.

Ce qui suit représente un message d'utilisateur unique :

[{ "role": "user", "content": [{"text":"Hello, Nova"}] }]

Voici un exemple avec plusieurs tournants de conversation :

[ {"role": "user", "content": [{"text": "Hello there."}]}, {"role": "assistant", "content": [{"text": "Hi, I'm Chatbot trained to answer your questions. How can I help you?"}]}, {"role": "user", "content": [{"text": "Can you explain LLMs in plain English?"}]} ]

Voici un exemple de réponse partiellement remplie d'Amazon Nova :

[ {"role": "user", "content": [{"text":"Please describe yourself using only JSON"}]}, {"role": "assistant", "content": [{"text":"Here is my JSON description:\n{"}]} ]

Pour plus d'informations sur la création d'invites pour les modèles Amazon Nova, consultezMeilleures pratiques en matière de compréhension du texte.

Utilisation de l'invite du système

Vous pouvez inclure une invite du système dans la demande. Une invite système vous permet de fournir du contexte et des instructions à Amazon Nova, par exemple en spécifiant un objectif ou un rôle particulier. Spécifiez une invite système dans le system champ, comme illustré dans l'exemple suivant :

[ {"text": "You are an expert SaS analyst......"} ]

Consultez les sections suivantes pour des exemples illustrant comment inclure une invite système :

Rubrique précédente :

Démarrez avec l'API

Sur cette page

ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.