Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Points de terminaison multi-modèles
Les points de terminaison multimodèles offrent une solution évolutive et économique pour le déploiement d'un grand nombre de modèles. Ils utilisent la même flotte de ressources et un conteneur de service partagé pour héberger tous vos modèles. Cela réduit les coûts d'hébergement en améliorant l'utilisation des points de terminaison par rapport à l'utilisation des points de terminaison à modèle unique. Cela réduit également les frais de déploiement, car Amazon SageMaker gère le chargement des modèles en mémoire et leur dimensionnement en fonction des modèles de trafic vers votre terminal.
Le diagramme suivant montre comment les points de terminaison multi-modèles fonctionnent par rapport aux points de terminaison à modèle unique.
Les points de terminaison multi-modèles sont idéaux pour héberger un grand nombre de modèles utilisant le même cadre de ML sur un conteneur de service partagé. Si vous disposez d'une combinaison de modèles fréquemment et peu utilisés, un point de terminaison multi-modèle peut traiter efficacement ce trafic avec moins de ressources et des économies de coûts plus importantes. Votre application doit être tolérante aux pénalités de latence occasionnelles liées au démarrage à froid qui se produisent lors de l'appel de modèles peu utilisés.
Les terminaux multimodèles prennent en charge l'hébergement à la fois des modèles CPU et des modèles GPU garantis. En utilisant des modèles GPU sauvegardés, vous pouvez réduire les coûts de déploiement de vos modèles grâce à une utilisation accrue du point de terminaison et de ses instances de calcul accéléré sous-jacentes.
Les points de terminaison multimodèles permettent également le partage du temps des ressources de mémoire sur l'ensemble de vos modèles. Cela fonctionne mieux lorsque les modèles sont assez similaires en taille et en latence d'invocation. Dans ce cas, les points de terminaison multimodèles peuvent utiliser efficacement des instances sur tous les modèles. Si vos modèles ont des exigences de transactions par seconde (TPS) ou de latence nettement plus élevées, nous vous recommandons de les héberger sur des points de terminaison dédiés.
Vous pouvez utiliser des points de terminaison multi-modèles dotés des fonctions suivantes :
-
AWS PrivateLinket VPCs
-
Auto scaling (Mise à l'échelle automatique)
-
Serial inference pipelines (Pipelines d'inférence série) (mais un seul conteneur multi-modèle peut être inclus dans un pipeline d'inférence)
-
Test A/B
Vous pouvez utiliser la console AWS SDK for Python (Boto) ou la SageMaker console pour créer un point de terminaison multimodèle. Pour les points de terminaison multimodèles CPU sauvegardés, vous pouvez créer votre point de terminaison avec des conteneurs personnalisés en intégrant la bibliothèque de serveurs multimodèles
Rubriques
- Fonctionnement des points de terminaison multimodèles
- Exemples de blocs-notes pour les points de terminaison multi-modèles
- Algorithmes, frameworks et instances pris en charge pour les points de terminaison multimodèles
- Recommandations d'instance pour les déploiements de points de terminaison multi-modèles
- Créer un point de terminaison multimodèle
- Invoquer un point de terminaison multimodèle
- Ajouter ou supprimer des modèles
- Créez votre propre conteneur pour les points de SageMaker terminaison multimodèles
- Sécurité des points de terminaison multimodèles
- CloudWatch Métriques pour les déploiements de terminaux multimodèles
- Définir le comportement de mise en cache SageMaker du modèle de point de terminaison multimodèle
- Définition de politiques Auto Scaling pour les déploiements de points de terminaison multi-modèles
Fonctionnement des points de terminaison multimodèles
SageMaker gère le cycle de vie des modèles hébergés sur des points de terminaison multimodèles dans la mémoire du conteneur. Au lieu de télécharger tous les modèles d'un compartiment Amazon S3 vers le conteneur lorsque vous créez le point de terminaison, chargez-les SageMaker dynamiquement et mettez-les en cache lorsque vous les invoquez. Lorsqu'il SageMaker reçoit une demande d'invocation pour un modèle particulier, il effectue les opérations suivantes :
-
Route la demande vers une instance située derrière le point de terminaison.
-
Télécharge le modèle du compartiment S3 vers le volume de stockage de cette instance.
-
Charge le modèle dans la mémoire du conteneur (CPUouGPU, selon que vous possédez CPU ou GPU sauvegardez des instances) sur cette instance de calcul accéléré. Si le modèle est déjà chargé dans la mémoire du conteneur, l'invocation est plus rapide car il SageMaker n'est pas nécessaire de le télécharger et de le charger.
SageMaker continue à acheminer les demandes pour un modèle vers l'instance où le modèle est déjà chargé. Toutefois, si le modèle reçoit de nombreuses demandes d'invocation et qu'il existe des instances supplémentaires pour le point de terminaison multimodèle, SageMaker achemine certaines demandes vers une autre instance pour prendre en charge le trafic. Si le modèle n'est pas déjà chargé sur la deuxième instance, il est téléchargé sur le volume de stockage de cette instance et chargé dans la mémoire du conteneur.
Lorsque l'utilisation de la mémoire d'une instance est élevée et SageMaker doit charger un autre modèle en mémoire, elle décharge les modèles inutilisés du conteneur de cette instance afin de s'assurer qu'il y a suffisamment de mémoire pour charger le modèle. Les modèles qui sont déchargés restent sur le volume de stockage de l'instance et peuvent être chargés dans la mémoire du conteneur ultérieurement sans être téléchargés à nouveau depuis le compartiment S3. Si le volume de stockage de l'instance atteint sa capacité maximale, SageMaker supprime tous les modèles inutilisés du volume de stockage.
Pour supprimer un modèle, arrêtez d'envoyer des demandes et supprimez-le du compartiment S3. SageMaker fournit une fonctionnalité de point de terminaison multimodèle dans un conteneur de service. L'ajout de modèles à un point de terminaison multimodèle et leur suppression ne nécessitent pas la mise à jour du point de terminaison lui-même. Pour ajouter un modèle, vous le chargez dans le compartiment S3 et vous l'appelez. Vous n'avez pas besoin de modifier le code pour l'utiliser.
Note
Lorsque vous mettez à jour un point de terminaison multi-modèle, les demandes d'appel initiales sur le point de terminaison peuvent présenter des latences plus élevées, car le routage intelligent des points de terminaison multi-modèles s'adapte à votre modèle de trafic. Cependant, une fois qu'il connaît votre modèle de trafic, vous pouvez constater de faibles latences pour les modèles les plus fréquemment utilisés. Les modèles moins fréquemment utilisés peuvent présenter des latences de démarrage à froid, car les modèles sont chargés dynamiquement dans une instance.
Exemples de blocs-notes pour les points de terminaison multi-modèles
Pour en savoir plus sur l'utilisation des points de terminaison multi-modèles, vous pouvez essayer les exemples de bloc-notes suivants :
-
Exemples de points de terminaison multimodèles utilisant des instances CPU sauvegardées :
-
XGBoostExemple de carnet de notes de point de terminaison multimodèle
: ce bloc-notes explique comment déployer plusieurs XGBoost modèles sur un point de terminaison. -
BYOCExemple de bloc-notes de points de terminaison multimodèles
— Ce bloc-notes explique comment configurer et déployer un conteneur client qui prend en charge les points de terminaison multimodèles dans. SageMaker
-
-
Exemple de points de terminaison multimodèles utilisant des instances GPU sauvegardées :
-
Exécutez plusieurs modèles de deep learning avec GPUs Amazon SageMaker Multi-model endpoints (MME)
— Ce bloc-notes explique comment utiliser un conteneur NVIDIA Triton Inference pour déployer 5 à 50 modèles sur un point de terminaison ResNet multimodèle.
-
Pour obtenir des instructions sur la création et l'accès à des instances de bloc-notes Jupyter que vous pouvez utiliser pour exécuter les exemples précédents SageMaker, consultez. Instances Amazon SageMaker Notebook Après avoir créé une instance de bloc-notes et l'avoir ouverte, cliquez sur l'onglet SageMaker Exemples pour afficher la liste de tous les SageMaker exemples. Les blocs-notes multimodèles pour terminaux se trouvent dans la ADVANCEDFUNCTIONALITYsection. Pour ouvrir un bloc-notes, choisissez son onglet Use (Utiliser), puis Create copy (Créer une copie).
Pour plus d'informations sur des cas d'utilisation des points de terminaison multi-modèles, consultez les blogs et ressources suivants :
-
Vidéo : SageMaker ML pour le SaaS
-
Blog : How to scale machine learning inference for multi-tenant SaaS use cases
(Comment mettre à l'échelle l'inférence de machine learning pour les cas d'utilisation SaaS à locataires multiples) -
Étude de cas : Veeva Systems
(Systèmes Veeva)