Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Déployez vos modèles sur un terminal

Mode de mise au point
Déployez vos modèles sur un terminal - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Dans Amazon SageMaker Canvas, vous pouvez déployer vos modèles sur un point de terminaison pour établir des prédictions. SageMaker L'IA fournit l'infrastructure ML qui vous permet d'héberger votre modèle sur un point de terminaison avec les instances de calcul de votre choix. Vous pouvez ensuite invoquer le point de terminaison (envoyer une demande de prédiction) et obtenir une prédiction en temps réel à partir de votre modèle. Grâce à cette fonctionnalité, vous pouvez utiliser votre modèle en production pour répondre aux demandes entrantes, et vous pouvez intégrer votre modèle aux applications et aux flux de travail existants.

Pour commencer, vous devez disposer d'un modèle que vous souhaitez déployer. Vous pouvez déployer des versions de modèles personnalisés que vous avez créées, des modèles de SageMaker JumpStart base Amazon et des modèles de JumpStart base affinés. Pour plus d'informations sur la création d'un modèle dans Canvas, consultezComment fonctionnent les modèles personnalisés. Pour plus d'informations sur les modèles de JumpStart base dans Canvas, consultezModèles de base de l'IA générative dans SageMaker Canvas.

Consultez la section Gestion des autorisations suivante, puis commencez à créer de nouveaux déploiements dans la section Déployer un modèle.

Gestion des autorisations

Par défaut, vous êtes autorisé à déployer des modèles sur les points de terminaison SageMaker AI Hosting. SageMaker AI accorde ces autorisations à tous les profils utilisateur Canvas nouveaux et existants par le biais de la AmazonSageMakerCanvasFullAccesspolitique, qui est attachée au rôle d'exécution AWS IAM pour le domaine SageMaker AI qui héberge votre application Canvas.

Si votre administrateur Canvas configure un nouveau domaine ou un nouveau profil utilisateur, lorsqu'il configure le domaine et suit les instructions préalables duConditions préalables à la configuration d'Amazon Canvas SageMaker , SageMaker AI active les autorisations de déploiement des modèles via l'option Activer le déploiement direct des modèles Canvas, qui est activée par défaut.

L'administrateur Canvas peut également gérer les autorisations de déploiement des modèles au niveau du profil utilisateur. Par exemple, si l'administrateur ne souhaite pas accorder d'autorisations de déploiement de modèles à tous les profils utilisateur lors de la configuration d'un domaine, il peut accorder des autorisations à des utilisateurs spécifiques après avoir créé le domaine.

La procédure suivante indique comment modifier les autorisations de déploiement du modèle pour un profil utilisateur spécifique :

  1. Ouvrez la console SageMaker AI à l'adresse https://console.aws.amazon.com/sagemaker/.

  2. Dans le panneau de navigation de gauche, choisissez Configurations d'administrateur.

  3. Sous Configurations d'administrateur, choisissez Domaines.

  4. Dans la liste des domaines, sélectionnez le domaine du profil utilisateur.

  5. Sur la page Détails du domaine, sélectionnez l'onglet Profils utilisateur.

  6. Choisissez votre profil d'utilisateur.

  7. Sur la page du profil utilisateur, sélectionnez l'onglet Configurations de l'application.

  8. Dans la section Canvas, choisissez Modifier.

  9. Dans la section Configuration de ML Ops, activez le bouton Activer le déploiement direct des modèles Canvas pour activer les autorisations de déploiement.

  10. Choisissez Soumettre pour enregistrer les modifications apportées aux paramètres de votre domaine.

Le profil utilisateur doit désormais disposer des autorisations de déploiement du modèle.

Après avoir accordé des autorisations au domaine ou au profil utilisateur, assurez-vous que l'utilisateur se déconnecte de son application Canvas et se reconnecte pour appliquer les modifications d'autorisation.

Déployer un modèle

Pour commencer à déployer votre modèle, vous créez un nouveau déploiement dans Canvas et vous spécifiez la version du modèle que vous souhaitez déployer ainsi que l'infrastructure ML, comme le type et le nombre d'instances de calcul que vous souhaitez utiliser pour héberger le modèle.

Canvas suggère un type et un nombre d'instances par défaut en fonction de votre type de modèle. Vous pouvez également en savoir plus sur les différents types d'instances d' SageMaker IA sur la page de tarification d'Amazon SageMaker AI. Vous êtes facturé en fonction de la tarification de l'instance SageMaker AI lorsque votre point de terminaison est actif.

Lorsque vous déployez des modèles de JumpStart base, vous avez également la possibilité de spécifier la durée du déploiement. Vous pouvez déployer le modèle sur un point de terminaison indéfiniment (ce qui signifie que le point de terminaison est actif jusqu'à ce que vous supprimiez le déploiement). Ou, si vous n'avez besoin du point de terminaison que pendant une courte période et que vous souhaitez réduire les coûts, vous pouvez déployer le modèle sur un point de terminaison pendant une durée spécifiée, après quoi l' SageMaker IA arrête le point de terminaison pour vous.

Note

Si vous déployez un modèle pendant une durée spécifiée, restez connecté à l'application Canvas pendant toute la durée du point de terminaison. Si vous vous déconnectez de l'application ou si vous la supprimez, Canvas ne pourra pas arrêter le point de terminaison à l'heure spécifiée.

Une fois votre modèle déployé sur un point de terminaison d'inférence en temps réel d' SageMaker AI Hosting, vous pouvez commencer à faire des prédictions en invoquant le point de terminaison.

Il existe plusieurs manières de déployer un modèle à partir de l'application Canvas. Vous pouvez accéder à l'option de déploiement du modèle par l'une des méthodes suivantes :

  • Sur la page Mes modèles de l'application Canvas, choisissez le modèle que vous souhaitez déployer. Ensuite, sur la page Versions du modèle, cliquez sur l'icône Autres options ( Vertical ellipsis icon representing a menu or more options. ) à côté de la version du modèle et sélectionnez Déployer.

  • Sur la page de détails d'une version de modèle, dans l'onglet Analyser, choisissez l'option Déployer.

  • Sur la page de détails d'une version de modèle, dans l'onglet Prédiction, cliquez sur l'icône Plus d'options ( Vertical ellipsis icon representing a menu or more options. ) en haut de la page et sélectionnez Déployer.

  • Sur la page ML Ops de l'application Canvas, choisissez l'onglet Déploiements, puis sélectionnez Créer un déploiement.

  • Pour les modèles de JumpStart fondation et les modèles de base affinés, rendez-vous sur la page Ready-to-use des modèles de l'application Canvas. Choisissez Générer, extraire et résumer du contenu. Recherchez ensuite le modèle de JumpStart base ou le modèle de base affiné que vous souhaitez déployer. Choisissez le modèle, puis sur la page de discussion du modèle, cliquez sur le bouton Déployer.

Toutes ces méthodes ouvrent le panneau latéral Déployer le modèle, dans lequel vous spécifiez la configuration de déploiement de votre modèle. Pour déployer le modèle à partir de ce panneau, procédez comme suit :

  1. (Facultatif) Si vous créez un déploiement à partir de la page ML Ops, vous aurez la possibilité de sélectionner le modèle et la version. Utilisez les menus déroulants pour sélectionner le modèle et la version du modèle que vous souhaitez déployer.

  2. Entrez un nom dans le champ Nom du déploiement.

  3. (Pour les modèles de JumpStart base et les modèles de base affinés uniquement) Choisissez une durée de déploiement. Sélectionnez Indéfini pour laisser le point de terminaison actif jusqu'à ce que vous l'éteigniez, ou sélectionnez Spécifier la durée, puis entrez la période pendant laquelle vous souhaitez que le point de terminaison reste actif.

  4. Pour le type d'instance, SageMaker AI détecte un type et un numéro d'instance par défaut adaptés à votre modèle. Vous pouvez toutefois modifier le type d'instance que vous souhaitez utiliser pour héberger votre modèle.

    Note

    Si le quota d'instance pour le type d'instance choisi sur votre AWS compte est dépassé, vous pouvez demander une augmentation du quota. Pour plus d'informations sur les quotas par défaut et sur la manière de demander une augmentation, consultez la section Points de terminaison et quotas Amazon SageMaker AI dans le guide de référence AWS général.

  5. Pour le nombre d'instances, vous pouvez définir le nombre d'instances actives utilisées pour votre point de terminaison. SageMaker L'IA détecte un numéro par défaut adapté à votre modèle, mais vous pouvez le modifier.

  6. Lorsque vous êtes prêt à déployer votre modèle, choisissez Deploy.

Votre modèle doit maintenant être déployé sur un point de terminaison.

ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.