AMAZON.QnAIntent - Amazon Lex

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

AMAZON.QnAIntent

Note

Avant de pouvoir tirer parti des fonctionnalités de l'IA générative, vous devez remplir les conditions préalables suivantes

  1. Accédez à la console Amazon Bedrock et inscrivez-vous pour accéder au modèle Anthropic Claude que vous souhaitez utiliser (pour plus d'informations, voir Accès au modèle). Pour plus d'informations sur les tarifs d'utilisation d'Amazon Bedrock, consultez les tarifs d'Amazon Bedrock.

  2. Activez les fonctionnalités d'IA générative pour les paramètres régionaux de votre bot. Pour ce faire, suivez les étapes indiquées surOptimisez la création et les performances des robots Lex V2 en utilisant l'IA générative.

Répond aux questions des clients en utilisant un Amazon Bedrock FM pour rechercher et résumer les FAQ réponses. Cette intention est activée lorsqu'un énoncé n'est classé dans aucune des autres intentions présentes dans le bot. Notez que cette intention ne sera pas activée pour les énoncés manqués lors de l'obtention d'une valeur d'intervalle. Une fois reconnu, leAMAZON.QnAIntent, utilise le modèle Amazon Bedrock spécifié pour effectuer des recherches dans la base de connaissances configurée et répondre à la question du client.

Avertissement

Vous ne pouvez pas utiliser le AMAZON.QnAIntent et AMAZON.KendraSearchIntent dans les mêmes paramètres régionaux de bot.

Les options de magasin de connaissances suivantes sont disponibles. Vous devez déjà avoir créé le magasin de connaissances et indexé les documents qu'il contient.

Si vous sélectionnez cette intention, vous configurez les champs suivants, puis sélectionnez Ajouter pour ajouter l'intention.

  • Modèle Bedrock — Choisissez le fournisseur et le modèle de fondation à utiliser à cette fin. Actuellement, Anthropic Claude V2, Anthropic Claude 3 Haiku, Anthropic Claude 3 Haiku et Anthropic Claude Instant sont pris en charge.

  • Magasin de connaissances : choisissez la source à partir de laquelle vous souhaitez que le modèle extraie des informations pour répondre aux questions des clients. Les sources suivantes sont disponibles.

    • OpenSearch— Configurez les champs suivants.

      • Point de terminaison de domaine : indiquez le point de terminaison de domaine que vous avez créé pour le domaine ou qui vous a été fourni après la création du domaine.

      • Nom de l'index : indiquez l'index à rechercher. Pour plus d'informations, consultez Indexation des données dans Amazon OpenSearch Service.

      • Choisissez la manière dont vous souhaitez renvoyer la réponse au client.

        • Réponse exacte — Lorsque cette option est activée, la valeur du champ Réponse est utilisée telle quelle pour la réponse du bot. Le modèle de base Amazon Bedrock configuré est utilisé pour sélectionner le contenu exact de la réponse tel quel, sans synthèse ni résumé du contenu. Spécifiez le nom des champs de question et de réponse configurés dans la OpenSearch base de données.

        • Inclure les champs : renvoie une réponse générée par le modèle à l'aide des champs que vous spécifiez. Spécifiez le nom d'un maximum de cinq champs configurés dans la OpenSearch base de données. Utilisez un point-virgule (;) pour séparer les champs.

    • Amazon Kendra — Configurez les champs suivants.

      • Index Amazon Kendra : sélectionnez l'index Amazon Kendra dans lequel vous souhaitez que votre bot recherche.

      • Filtre Amazon Kendra : pour créer un filtre, cochez cette case. Pour plus d'informations sur le JSON format de filtre de recherche Amazon Kendra, consultez Utilisation des attributs de document pour filtrer les résultats de recherche.

      • Réponse exacte : pour que votre bot renvoie la réponse exacte renvoyée par Amazon Kendra, cochez cette case. Dans le cas contraire, le modèle Amazon Bedrock que vous sélectionnez génère une réponse basée sur les résultats.

        Note

        Pour utiliser cette fonctionnalité, vous devez d'abord ajouter FAQ des questions à votre index en suivant les étapes décrites dans Ajouter des questions fréquemment posées (FAQs) à un index.

    • Base de connaissances Amazon Bedrock : si vous choisissez cette option, spécifiez l'ID de la base de connaissances. Vous pouvez trouver l'ID en consultant la page de détails de la base de connaissances dans la console ou en envoyant une GetKnowledgeBasedemande.

      • Réponse exacte — Lorsque cette option est activée, la valeur du champ Réponse est utilisée telle quelle pour la réponse du bot. Le modèle de base Amazon Bedrock configuré est utilisé pour sélectionner le contenu exact de la réponse tel quel, sans synthèse ni résumé du contenu. Pour utiliser la réponse exacte pour la base de connaissances Amazon Bedrock, vous devez procéder comme suit :

        • Créez des JSON fichiers individuels, chaque fichier contenant un champ de réponse contenant la réponse exacte à renvoyer à l'utilisateur final.

        • Lors de l'indexation de ces documents dans la base de connaissances Bedrock, sélectionnez la stratégie de découpage sans découpage.

        • Définissez le champ de réponse dans Amazon Lex V2 comme champ de réponse dans la base de connaissances Bedrock.

Les réponses du Q nAIntent seront stockées dans les attributs de la demande, comme indiqué ci-dessous :

  • x-amz-lex:qnA-search-response— La réponse du Q nAIntent à la question ou à l'énoncé.

  • x-amz-lex:qnA-search-response-source— Pointe vers le document ou la liste de documents utilisés pour générer la réponse.

Configurations de modèles supplémentaires

Lorsque AMAZON .Q nAIntent est invoqué, il utilise un modèle d'invite par défaut qui combine les instructions et le contexte avec la requête de l'utilisateur pour créer l'invite envoyée au modèle pour la génération de réponses. Vous pouvez également fournir une invite personnalisée ou mettre à jour l'invite par défaut en fonction de vos besoins.

Vous pouvez créer le modèle d'invite à l'aide des outils suivants :

Espaces réservés rapides : variables prédéfinies dans AMAZON .Q pour nAIntent Amazon Bedrock qui sont renseignées dynamiquement lors de l'exécution pendant l'appel à Bedrock. Dans l'invite du système, vous pouvez voir ces espaces réservés entourés du $ symbole. La liste suivante décrit les espaces réservés que vous pouvez utiliser :

Variable Remplacé par Modèle Obligatoire ?
$requête_résultats$ Les résultats obtenus pour la requête de l'utilisateur depuis le Knowledge Store Haïku Anthropic Claude 3, Sonnet Anthropic Claude 3 Oui
$instruction_de sortie$ Instructions sous-jacentes pour le formatage de la génération de réponses et des citations. Diffère selon le modèle. Si vous définissez vos propres instructions de mise en forme, nous vous suggérons de supprimer cet espace réservé. Haïku Anthropic Claude 3, Sonnet Anthropic Claude 3 Non

L'invite par défaut utilisée est la suivante :

$query_results$ Please only follow the instructions in <instruction> tags below. <instruction> Given the conversation history, and <Context>: (1) first, identify the user query intent and classify it as one of the categories: FAQ_QUERY, OTHER_QUERY, GIBBERISH, GREETINGS, AFFIRMATION, CHITCHAT, or MISC; (2) second, if the intent is FAQ_QUERY, predict the most relevant grounding passage(s) by providing the passage id(s) or output CANNOTANSWER; (3) then, generate a concise, to-the-point FAQ-style response ONLY USING the grounding content in <Context>; or output CANNOTANSWER if the user query/request cannot be directly answered with the grounding content. DO NOT mention about the grounding passages such as ids or other meta data; do not create new content not presented in <Context>. Do NOT respond to query that is ill-intented or off-topic; (4) lastly, provide the confidence level of the above prediction as LOW, MID or HIGH. </instruction> $output_instruction$

$output_instruction$ est remplacé par :

Give your final response in the following form: <answer> <intent>FAQ_QUERY or OTHER_QUERY or GIBBERISH or GREETINGS or AFFIRMATION or CHITCHAT or MISC</intent> <text>a concise FAQ-style response or CANNOTANSWER</text> <passage_id>passage_id or CANNOTANSWER</passage_id> <confidence>LOW or MID or HIGH</confidence> </answer>
Note

Si vous décidez de ne pas utiliser les instructions par défaut, le résultat LLM fourni sera renvoyé tel quel à l'utilisateur final.

Les instructions de sortie doivent contenir des balises<text></text> et < passageId ></ passageId > et des instructions permettant de renvoyer le LLM afin de fournir la passageIds réponse et l'attribution de la source.

Support du filtrage des métadonnées de la base de connaissances Amazon Bedrock via les attributs de session

Vous pouvez transmettre les filtres de métadonnées de la base de connaissances Amazon Bedrock dans le cadre de l'attribut x-amz-lex:bkb-retrieval-filter de session.

{"sessionAttributes":{"x-amz-lex:bkb-retrieval-filter":"{\"equals\":{\"key\":\"insurancetype\",\"value\":\"farmers\"}}
Note

Pour utiliser ce filtre, vous devez utiliser la base de connaissances Amazon Bedrock comme magasin de données pour que le Q nAIntent puisse utiliser ce filtre. Pour plus d’informations, consultez .Metadata filtering

Configurations d'inférence

Vous pouvez définir les configurations d'inférence qui seront utilisées lors de l'appel à l'attribut d'LLMutilisation de session :

  • température : type Integer

  • topP

  • maxTokens

Exemple :

{"sessionAttributes":{"x-amz-lex:llm-text-inference-config":"{\"temperature\":0,\"topP\":1,\"maxTokens\":200}"}}

Support des garde-corps Bedrock grâce au temps de construction et aux attributs de session

  • En utilisant la console de Buildtime, fournissez le GuardrailsIdentifier et le. GuardrailsVersion Pour en savoir plus, consultez la section Configurations de modèles supplémentaires.

  • En utilisant les attributs de session — Vous pouvez également définir la configuration de Guardrails à l'aide des attributs de session : x-amz-lex:bedrock-guardrails-identifier et. x-amz-lex:bedrock-guardrails-version

Pour plus d'informations sur l'utilisation des rambardes Bedrock, voir Rambardes.