Modèles de base de l'IA générative dans SageMaker Canvas - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Modèles de base de l'IA générative dans SageMaker Canvas

Amazon SageMaker Canvas fournit des modèles de base d'IA génératifs que vous pouvez utiliser pour démarrer des discussions conversationnelles. Ces modèles de génération de contenu sont entraînés sur de grandes quantités de données texte pour apprendre les modèles statistiques et les relations entre les mots. Ils peuvent produire un texte cohérent statistiquement similaire au texte sur lequel ils ont été entraînés. Vous pouvez utiliser cette fonctionnalité pour augmenter votre productivité en effectuant les tâches suivantes :

  • Générer du contenu, tel que des plans de documents, des rapports et des blogs

  • Résumer du texte à partir de grands corps de textes, tels que des transcriptions de conférences téléphoniques, des rapports annuels ou des chapitres de manuels d'utilisation

  • Extraire des informations et des points à retenir de grands passages de texte, tels que des notes de réunion ou des récits

  • Améliorer le texte et détecter les erreurs grammaticales ou les fautes de frappe

Les modèles de base sont une combinaison des grands modèles linguistiques Amazon SageMaker JumpStart et Amazon Bedrock (LLMs). Canvas propose les modèles suivants :

Modèle Type Description

Amazon Titan

Modèle Amazon Bedrock

Amazon Titan est un modèle de langage puissant et polyvalent que vous pouvez utiliser pour des tâches telles que le résumé, la génération de texte (comme la création d'un billet de blog), la classification, les questions-réponses ouvertes et l'extraction d'informations. Il est pré-entraîné sur de grands jeux de données, ce qui le rend adapté aux tâches et aux raisonnements complexes. Pour continuer à soutenir les meilleures pratiques en matière d'utilisation responsable de l'IA, les modèles Amazon Titan Foundation sont conçus pour détecter et supprimer le contenu préjudiciable des données, rejeter le contenu inapproprié des entrées utilisateur et filtrer les résultats des modèles contenant du contenu inapproprié (tel que les discours de haine, les blasphèmes et la violence).

Anthropic Claude Instant

Modèle Amazon Bedrock

Le modèle Claude Instant d'Anthropic est plus rapide et plus rentable tout en restant très performant. Ce modèle peut gérer une gamme de tâches, notamment le dialogue informel, l'analyse de texte, le résumé et la réponse aux questions sur des documents. Tout comme Claude-2, Claude Instant peut prendre en charge jusqu'à 100 000 jetons par invite, soit l'équivalent d'environ 200 pages d'informations.

Anthropic Claude-2

Modèle Amazon Bedrock

Claude-2 est le modèle le plus puissant d'Anthropic, qui excelle dans un large éventail de tâches, qu'il s'agisse de dialogues sophistiqués, de génération de contenu créatif ou de suivi d'instructions détaillées. Claude-2 peut prendre en charge jusqu'à 100 000 jetons par invite, soit l'équivalent d'environ 200 pages d'informations. Il peut générer des réponses plus longues par rapport à sa version précédente. Il prend en charge des cas d'utilisation tels que la réponse aux questions, l'extraction et la suppression d'informationsPII, la génération de contenu, la classification à choix multiples, le jeu de rôle, la comparaison de texte, la synthèse et les questions-réponses sur les documents avec citation.

Falcon-7B-Instruct

JumpStart modèle

Falcon-7B-Instruct possède 7 milliards de paramètres et a été optimisé sur la base d'un mélange de jeux de données de chat et d'instructions. Il convient comme assistant virtuel et fonctionne mieux lorsque vous suivez des instructions ou que vous engagez une conversation. Étant donné que le modèle a été entraîné sur de grandes quantités de données Web en anglais, il reprend les stéréotypes et les préjugés courants qu'on peut trouver en ligne et ne convient pas aux langues autres que l'anglais. Comparé au Falcon-40B-Instruct, le modèle Falcon-7B-Instruct est légèrement plus petit et plus compact.

Falcon-40B-Instruct

JumpStart modèle

Falcon-40B-Instruct possède 40 milliards de paramètres et a été optimisé sur la base d'un mélange de jeux de données de chat et d'instructions. Il convient comme assistant virtuel et fonctionne mieux lorsque vous suivez des instructions ou que vous engagez une conversation. Étant donné que le modèle a été entraîné sur de grandes quantités de données Web en anglais, il reprend les stéréotypes et les préjugés courants qu'on peut trouver en ligne et ne convient pas aux langues autres que l'anglais. Comparé au Falcon-7B-Instruct, le modèle Falcon-40B-Instruct est légèrement plus grand et plus puissant.

Jurassic-2 Mid

Modèle Amazon Bedrock

Jurassic-2 Mid est un modèle de génération de texte à haute performance entraîné sur un corpus de texte massif (actuel jusqu'à mi-2022). Il est très polyvalent et capable de composer du texte de type humain et de résoudre des tâches complexes telles que la réponse à des questions, la classification de texte et bien d'autres. Ce modèle offre des fonctionnalités d'instruction en zéro coup, ce qui permet de l'orienter uniquement avec un langage naturel, sans utiliser d'exemples. Il est jusqu'à 30 % plus rapide que son prédécesseur, le modèle Jurassic-1.

Le Jurassic-2 Mid est un modèle AI21 de taille moyenne, soigneusement conçu pour trouver le juste équilibre entre qualité exceptionnelle et prix abordable.

Jurassic-2 Ultra

Modèle Amazon Bedrock

Jurassic-2 Ultra est un modèle de génération de texte à haute performance entraîné sur un corpus de texte massif (actuel jusqu'à mi-2022). Il est très polyvalent et capable de composer du texte de type humain et de résoudre des tâches complexes telles que la réponse à des questions, la classification de texte et bien d'autres. Ce modèle offre des fonctionnalités d'instruction en zéro coup, ce qui permet de l'orienter uniquement avec un langage naturel, sans utiliser d'exemples. Il est jusqu'à 30 % plus rapide que son prédécesseur, le modèle Jurassic-1.

Comparé à Jurassic-2 Mid, le modèle Jurassic-2 Ultra est légèrement plus grand et plus puissant.

Chat Llama-2-7B

JumpStart modèle

Llama-2-7B-Chat est un modèle de base de Meta qui convient pour engager des conversations significatives et cohérentes, générer du nouveau contenu et extraire des réponses à partir de notes existantes. Comme le modèle a été formé sur de grandes quantités de données Internet en anglais, il présente les biais et les limites couramment rencontrés en ligne et convient parfaitement aux tâches en anglais.

Llama-2-13B-Chat

Modèle Amazon Bedrock

Llama-2-13B-Chat de Meta a été peaufiné sur les données conversationnelles après une formation initiale sur les données Internet. Il est optimisé pour un dialogue naturel et des capacités de chat engageantes, ce qui le rend idéal en tant qu'agent conversationnel. Comparé au plus petit Llama-2-7B-Chat, le Llama-2-13B-Chat possède presque deux fois plus de paramètres, ce qui lui permet de mémoriser plus de contexte et de produire des réponses conversationnelles plus nuancées. Comme Llama-2-7B-Chat, Llama-2-13B-Chat a été formé sur des données en anglais et convient parfaitement aux tâches en anglais.

Llama-2-70B-Chat

Modèle Amazon Bedrock

Comme Llama-2-7B-Chat et Llama-2-13B-Chat, le modèle Llama-2-70B-Chat de Meta est optimisé pour engager un dialogue naturel et significatif. Avec 70 milliards de paramètres, ce grand modèle conversationnel peut mémoriser un contexte plus étendu et produire des réponses très cohérentes par rapport aux versions de modèle plus compactes. Cependant, cela se fait au prix de réponses plus lentes et de besoins en ressources plus élevés. Llama-2-70B-Chat a été formé sur de grandes quantités de données Internet en anglais et convient parfaitement aux tâches en anglais.

Mistral-7B

JumpStart modèle

Mistral-7B de Mistral.AI est un excellent modèle de langage à usage général adapté à un large éventail de tâches en langage naturel (NLP) telles que la génération de texte, la synthèse et la réponse à des questions. Il utilise l'option grouped-query attention (GQA) qui permet des vitesses d'inférence plus rapides, ce qui lui permet de fonctionner de manière comparable à celle des modèles comportant deux ou trois fois plus de paramètres. Il a été formé sur un mélange de données textuelles, notamment des livres, des sites Web et des articles scientifiques en anglais. Il est donc parfaitement adapté aux tâches en anglais.

Mistral 7B Chat

JumpStart modèle

Mistral-7B-Chat est un modèle conversationnel de Mistral.AI basé sur Mistral-7B. Bien que Mistral-7B soit la solution idéale pour les NLP tâches générales, Mistral-7B-Chat a été encore affiné en fonction des données conversationnelles afin d'optimiser ses capacités pour un chat naturel et engageant. Par conséquent, Mistral-7B-Chat génère des réponses plus humaines et mémorise le contexte des réponses précédentes. Comme le Mistral-7B, ce modèle est le mieux adapté aux tâches linguistiques en anglais.

MPT-7B - Instruire

JumpStart modèle

MPT-7B-Instruct est un modèle d'instructions détaillées suivant des tâches et peut vous aider à rédiger des tâches, notamment la synthèse de texte et la réponse à des questions, afin de vous faire gagner du temps et de l'énergie. Ce modèle a été entraîné sur de grandes quantités de données optimisées et peut gérer des entrées plus importantes, telles que des documents complexes. Utilisez ce modèle lorsque vous souhaitez traiter de grands corps de texte ou que vous souhaitez que le modèle génère de longues réponses.

Les modèles de fondation d'Amazon Bedrock ne sont actuellement disponibles que dans les régions USA Est (Virginie du Nord) et USA Ouest (Oregon). En outre, lorsque vous utilisez des modèles de fondation d'Amazon Bedrock, vous êtes facturé en fonction du volume de jetons d'entrée et de jetons de sortie, tel que spécifié par chaque fournisseur de modèle. Pour plus d'informations, consultez la page Tarification Amazon Bedrock (langue française non garantie). Les modèles de JumpStart base sont déployés sur des instances SageMaker d'hébergement, et la durée d'utilisation vous est facturée en fonction du type d'instance utilisé. Pour plus d'informations sur le coût des différents types d'instances, consultez la section Amazon SageMaker Hosting : Real-Time Inference sur la page de SageMaker tarification.

L'interrogation de documents est une fonctionnalité supplémentaire que vous pouvez utiliser pour interroger et obtenir des informations à partir de documents stockés dans des index à l'aide d'Amazon Kendra. Grâce à cette fonctionnalité, vous pouvez générer du contenu à partir du contexte de ces documents et recevoir des réponses spécifiques à votre cas d'utilisation métier, par opposition à des réponses génériques aux grandes quantités de données sur lesquelles les modèles de base ont été formés. Pour plus d'informations sur les index dans Amazon Kendra, consultez le guide du développeur Amazon Kendra.

Si vous souhaitez obtenir des réponses de l'un des modèles de base personnalisés en fonction de vos données et de votre cas d'utilisation, vous pouvez affiner les modèles de base. Pour en savoir plus, consultez Ajustez les modèles de base.

Si vous souhaitez obtenir des prédictions à partir d'un modèle Amazon SageMaker JumpStart Foundation via une application ou un site Web, vous pouvez déployer le modèle sur un SageMaker point de terminaison. SageMaker les points de terminaison hébergent votre modèle, et vous pouvez envoyer des demandes au point de terminaison via le code de votre application pour recevoir les prédictions du modèle. Pour de plus amples informations, veuillez consulter Déployez vos modèles sur un terminal.