Configurez votre fournisseur de modèles - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Configurez votre fournisseur de modèles

Note

Dans cette section, nous partons du principe que le langage et les modèles d'intégration que vous prévoyez d'utiliser sont déjà déployés. Pour les modèles fournis par AWS, vous devriez déjà disposer ARN de l'identifiant de votre SageMaker terminal ou d'un accès à Amazon Bedrock. Pour les autres fournisseurs de modèles, vous devez disposer de la API clé utilisée pour authentifier et autoriser les demandes adressées à votre modèle.

Jupyter AI prend en charge un large éventail de fournisseurs de modèles et de modèles linguistiques. Consultez la liste des modèles pris en charge pour vous tenir au courant des derniers modèles disponibles. Pour plus d'informations sur le déploiement d'un modèle fourni par JumpStart, consultez la section Déployer un modèle dans la JumpStart documentation. Vous devez demander l'accès à Amazon Bedrock pour l'utiliser en tant que fournisseur de modèles.

La configuration de Jupyter AI varie selon que vous utilisez l'interface utilisateur du chat ou les commandes magiques.

Configurez votre fournisseur de modèles dans l'interface utilisateur du chat

Note

Vous pouvez configurer plusieurs modèles LLMs et les intégrer en suivant les mêmes instructions. Cependant, vous devez configurer au moins un modèle de langage.

Pour configurer votre interface utilisateur de chat
  1. Dans JupyterLab, accédez à l'interface de discussion en choisissant l'icône de discussion ( Icon of a rectangular shape with a curved arrow pointing to the upper right corner. ) dans le panneau de navigation de gauche.

  2. Choisissez l'icône de configuration ( Gear or cog icon representing settings or configuration options. ) dans le coin supérieur droit du volet gauche. Cela ouvre le panneau de configuration de Jupyter AI.

  3. Remplissez les champs relatifs à votre fournisseur de services.

    • Pour les modèles fournis par JumpStart ou Amazon Bedrock

      • Dans la liste déroulante des modèles de langue, sélectionnez sagemaker-endpoint les modèles déployés avec JumpStart ou bedrock pour les modèles gérés par Amazon Bedrock.

      • Les paramètres varient selon que votre modèle est déployé sur Amazon Bedrock SageMaker ou Amazon.

        • Pour les modèles déployés avec JumpStart :

        • Pour les modèles gérés par Amazon Bedrock : ajoutez le AWS profil contenant vos AWS informations d'identification sur votre système (facultatif), puis le profil Région AWS dans lequel votre modèle est déployé dans le nom de la région.

      • (Facultatif) Sélectionnez un modèle d'intégration auquel vous avez accès. Les modèles d'intégration sont utilisés pour capturer des informations supplémentaires à partir de documents locaux, ce qui permet au modèle de génération de texte de répondre aux questions dans le contexte de ces documents.

      • Choisissez Enregistrer les modifications et naviguez jusqu'à l'icône de flèche gauche ( Left-pointing arrow icon, typically used for navigation or returning to a previous page. ) dans le coin supérieur gauche du volet gauche. Cela ouvre l'interface utilisateur de discussion Jupyter AI. Vous pouvez commencer à interagir avec votre modèle.

    • Pour les modèles hébergés par des fournisseurs tiers

      • Dans la liste déroulante des modèles de langue, sélectionnez votre identifiant de fournisseur. Vous pouvez trouver les détails de chaque fournisseur, y compris son identifiant, dans la liste des fournisseurs de modèles de Jupyter AI.

      • (Facultatif) Sélectionnez un modèle d'intégration auquel vous avez accès. Les modèles d'intégration sont utilisés pour capturer des informations supplémentaires à partir de documents locaux, ce qui permet au modèle de génération de texte de répondre aux questions dans le contexte de ces documents.

      • Insérez les API clés de vos modèles.

      • Choisissez Enregistrer les modifications et naviguez jusqu'à l'icône de flèche gauche ( Left-pointing arrow icon, typically used for navigation or returning to a previous page. ) dans le coin supérieur gauche du volet gauche. Cela ouvre l'interface utilisateur de discussion Jupyter AI. Vous pouvez commencer à interagir avec votre modèle.

L'instantané suivant est une illustration du panneau de configuration de l'interface utilisateur de chat configuré pour invoquer un modèle FLAN-T5-small fourni et déployé dans. JumpStart SageMaker

Panneau de configuration de l'interface utilisateur de chat configuré pour invoquer un modèle Flan-T5-small fourni par. JumpStart

Transmettez des paramètres de modèle supplémentaires et des paramètres personnalisés à votre demande

Votre modèle peut avoir besoin de paramètres supplémentaires, tels qu'un attribut personnalisé pour l'approbation du contrat utilisateur ou des ajustements d'autres paramètres du modèle tels que la température ou la longueur de réponse. Nous vous recommandons de configurer ces paramètres comme option de démarrage de votre JupyterLab application à l'aide d'une configuration du cycle de vie. Pour plus d'informations sur la façon de créer une configuration de cycle de vie et de l'associer à votre domaine ou à un profil utilisateur depuis la SageMaker console, voir Créer et associer une configuration de cycle de vie. Vous pouvez choisir votre LCC script lorsque vous créez un espace pour votre JupyterLab application.

Utilisez le JSON schéma suivant pour configurer vos paramètres supplémentaires :

{ "AiExtension": { "model_parameters": { "<provider_id>:<model_id>": { Dictionary of model parameters which is unpacked and passed as-is to the provider.} } } } }

Le script suivant est un exemple de fichier de JSON configuration que vous pouvez utiliser lors de la création d'une JupyterLab application LCC pour définir la longueur maximale d'un modèle AI21 Labs Jurassic-2 déployé sur Amazon Bedrock. L'augmentation de la longueur de la réponse générée par le modèle peut empêcher la troncature systématique de la réponse de votre modèle.

#!/bin/bash set -eux mkdir -p /home/sagemaker-user/.jupyter json='{"AiExtension": {"model_parameters": {"bedrock:ai21.j2-mid-v1": {"model_kwargs": {"maxTokens": 200}}}}}' # equivalent to %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":200}} # File path file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json" #jupyter --paths # Write JSON to file echo "$json" > "$file_path" # Confirmation message echo "JSON written to $file_path" restart-jupyter-server # Waiting for 30 seconds to make sure the Jupyter Server is up and running sleep 30

Le script suivant est un exemple de fichier de JSON configuration permettant de créer une JupyterLab application LCC utilisée pour définir des paramètres de modèle supplémentaires pour un modèle Anthropic Claude déployé sur Amazon Bedrock.

#!/bin/bash set -eux mkdir -p /home/sagemaker-user/.jupyter json='{"AiExtension": {"model_parameters": {"bedrock:anthropic.claude-v2":{"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":25 0,"max_tokens_to_sample":2}}}}}' # equivalent to %%ai bedrock:anthropic.claude-v2 -m {"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":250,"max_tokens_to_sample":2000}} # File path file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json" #jupyter --paths # Write JSON to file echo "$json" > "$file_path" # Confirmation message echo "JSON written to $file_path" restart-jupyter-server # Waiting for 30 seconds to make sure the Jupyter Server is up and running sleep 30

Une fois que vous avez rattaché votre nom LCC à votre domaine ou à votre profil utilisateur, ajoutez-le LCC à votre espace lors du lancement de votre JupyterLab application. Pour vous assurer que votre fichier de configuration est mis à jour par leLCC, exécutez-le more ~/.jupyter/jupyter_jupyter_ai_config.json dans un terminal. Le contenu du fichier doit correspondre au contenu du JSON fichier transmis auLCC.

Configurez votre fournisseur de modèles dans un bloc-notes

Pour invoquer un modèle via Jupyter AI dans un ordinateur portable JupyterLab ou Studio Classic à l'aide des commandes magiques et %%ai%ai
  1. Installez les bibliothèques clientes spécifiques à votre fournisseur de modèles dans l'environnement de votre bloc-notes. Par exemple, lorsque vous utilisez des modèles OpenAI, vous devez installer la bibliothèque openai cliente. Vous trouverez la liste des bibliothèques clientes requises par fournisseur dans la colonne Package (s) Python de la liste des fournisseurs de Jupyter AI Model.

    Note

    Pour les modèles hébergés par AWS, boto3 est déjà installé dans l'image de SageMaker distribution utilisée par JupyterLab ou dans toute image Data Science utilisée avec Studio Classic.

    • Pour les modèles hébergés par AWS

      Assurez-vous que votre rôle d'exécution est autorisé à appeler votre SageMaker point de terminaison pour les modèles fournis par Amazon Bedrock JumpStart ou que vous avez accès à celui-ci.

    • Pour les modèles hébergés par des fournisseurs tiers

      Exportez la API clé de votre fournisseur dans l'environnement de votre bloc-notes à l'aide de variables d'environnement. Vous pouvez utiliser la commande magique suivante. Remplacez la commande provider_API_key in par la variable d'environnement trouvée dans la colonne Variable d'environnement de la liste des fournisseurs de modèles Jupyter AI pour votre fournisseur.

      %env provider_API_key=your_API_key