Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Présentation des applications Amazon SageMaker Partner AI

Mode de mise au point
Présentation des applications Amazon SageMaker Partner AI - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Avec Amazon SageMaker Partner AI Apps, les utilisateurs ont accès à des applications de développement d'IA générative et d'apprentissage automatique (ML) conçues, publiées et distribuées par les principaux fournisseurs d'applications du secteur. Les applications d'IA partenaires sont certifiées pour fonctionner sur l' SageMaker IA. Avec les applications Partner AI, les utilisateurs peuvent accélérer et améliorer la manière dont ils créent des solutions basées sur des modèles de base (FM) et des modèles classiques de ML sans compromettre la sécurité de leurs données sensibles. Les données restent entièrement conformes à leur configuration de sécurité fiable et ne sont jamais partagées avec un tiers. 

Comment ça marche

Les applications Partner AI sont des piles d'applications complètes qui incluent un cluster Amazon Elastic Kubernetes Service et une gamme de services associés, notamment Application Load Balancer, Amazon Relational Database Service, des buckets Amazon Simple Storage Service, des files d'attente Amazon Simple Queue Service et Redis caches.

Ces applications de service peuvent être partagées entre tous les utilisateurs d'un domaine d' SageMaker IA et sont fournies par un administrateur. Après avoir approvisionné l'application en achetant un abonnement via le AWS Marketplace, l'administrateur peut autoriser les utilisateurs du domaine SageMaker AI à accéder à l'application Partner AI directement depuis Amazon SageMaker Studio, Amazon SageMaker Unified Studio (version préliminaire) ou à l'aide d'une URL pré-signée. Pour plus d'informations sur le lancement d'une application depuis Studio, consultezLancez Amazon SageMaker Studio.

Partner AI Apps offre les avantages suivants aux administrateurs et aux utilisateurs. 

  • Les administrateurs utilisent la console SageMaker AI pour parcourir, découvrir, sélectionner et mettre en service les applications d'IA partenaires destinées à être utilisées par leurs équipes de science des données et de machine learning. Une fois les applications Partner AI déployées, SageMaker AI les exécute sur une base gérée par des services. Comptes AWS Cela réduit considérablement les frais opérationnels associés à la création et à l'exploitation de ces applications, et contribue à la sécurité et à la confidentialité des données des clients.

  • Les data scientists et les développeurs de machine learning peuvent accéder aux applications Partner AI depuis leur environnement de développement de machine learning dans Amazon SageMaker Studio ou Amazon SageMaker Unified Studio (version préliminaire). Ils peuvent utiliser les applications Partner AI pour analyser leurs données, leurs expériences et leurs modèles créés sur l' SageMaker IA. Cela permet de minimiser le changement de contexte et d'accélérer la création de modèles de base et la mise sur le marché de nouvelles capacités d'IA générative.

Intégration avec Services AWS

Partner AI Apps utilise la configuration existante AWS Identity and Access Management (IAM) pour l'autorisation et l'authentification. Par conséquent, les utilisateurs n'ont pas besoin de fournir des informations d'identification distinctes pour accéder à chaque application Partner AI depuis Amazon SageMaker Studio. Pour plus d'informations sur l'autorisation et l'authentification avec les applications Partner AI, consultezConfigurer les applications d'IA pour les partenaires.

Partner AI Apps s'intègre également Amazon CloudWatch pour fournir une surveillance et une gestion opérationnelles. Les clients peuvent également parcourir les applications Partner AI et obtenir des informations les concernant, telles que les fonctionnalités, l'expérience client et les prix, sur le AWS Management Console. Pour plus d'informations sur Amazon CloudWatch, consultez la section Amazon CloudWatch Fonctionnement.

Types pris en charge

Les applications d'IA partenaires sont compatibles avec les types suivants :

  • Comet

  • Deepchecks

  • Fiddler

  • Lakera Guard

Lorsque l'administrateur lance une application Partner AI, il doit sélectionner la configuration du cluster d'instances avec lequel l'application Partner AI est lancée. Cette configuration est connue sous le nom de niveau de l'application Partner AI. Le niveau d'une application Partner AI peut être l'une des valeurs suivantes :

  • small

  • medium

  • large

Les sections suivantes fournissent des informations sur chacun des types d'applications Partner AI, ainsi que des détails sur les valeurs de niveau de l'application Partner AI.

Comet fournit une plate-forme d'évaluation de end-to-end modèles pour les développeurs d'IA, avec des évaluations LLM, un suivi des expériences et un suivi de la production.

Nous recommandons les niveaux suivants de l'application Partner AI en fonction de la charge de travail :

  • small— Recommandé pour un maximum de 5 utilisateurs et 20 tâches en cours d'exécution.

  • medium— Recommandé pour un maximum de 50 utilisateurs et 100 tâches en cours d'exécution.

  • large— Recommandé pour un maximum de 500 utilisateurs et pour plus de 100 tâches en cours d'exécution.

Note

SageMaker L'IA ne prend pas en charge l'affichage du Comet Interface utilisateur faisant partie de la sortie d'un bloc-notes Jupyter.

Comet fournit une plate-forme d'évaluation de end-to-end modèles pour les développeurs d'IA, avec des évaluations LLM, un suivi des expériences et un suivi de la production.

Nous recommandons les niveaux suivants de l'application Partner AI en fonction de la charge de travail :

  • small— Recommandé pour un maximum de 5 utilisateurs et 20 tâches en cours d'exécution.

  • medium— Recommandé pour un maximum de 50 utilisateurs et 100 tâches en cours d'exécution.

  • large— Recommandé pour un maximum de 500 utilisateurs et pour plus de 100 tâches en cours d'exécution.

Note

SageMaker L'IA ne prend pas en charge l'affichage du Comet Interface utilisateur faisant partie de la sortie d'un bloc-notes Jupyter.

Les développeurs d'applications d'IA et les parties prenantes peuvent utiliser Deepchecks pour valider en permanence les applications basées sur le LLM, y compris les caractéristiques, les indicateurs de performance et les pièges potentiels tout au long du cycle de vie, depuis le pré-déploiement et l'expérimentation interne jusqu'à la production.

Nous recommandons les niveaux suivants de l'application Partner AI en fonction de la vitesse souhaitée pour la charge de travail :

  • small— Traite 200 jetons par seconde.

  • medium— Traite 500 jetons par seconde.

  • large— Traite 1 300 jetons par seconde.

Les développeurs d'applications d'IA et les parties prenantes peuvent utiliser Deepchecks pour valider en permanence les applications basées sur le LLM, y compris les caractéristiques, les indicateurs de performance et les pièges potentiels tout au long du cycle de vie, depuis le pré-déploiement et l'expérimentation interne jusqu'à la production.

Nous recommandons les niveaux suivants de l'application Partner AI en fonction de la vitesse souhaitée pour la charge de travail :

  • small— Traite 200 jetons par seconde.

  • medium— Traite 500 jetons par seconde.

  • large— Traite 1 300 jetons par seconde.

Le Fiddler La plate-forme AI Observability facilite la validation, le suivi et l'analyse des modèles de machine learning en production, notamment les modèles tabulaires, d'apprentissage profond, de vision par ordinateur et de traitement du langage naturel.

Nous recommandons les niveaux suivants de l'application Partner AI en fonction de la vitesse souhaitée pour la charge de travail :

  • small— Le traitement de 10 millions d'événements répartis sur 5 modèles, 100 fonctionnalités et 20 itérations prend environ 53 minutes.

  • medium— Le traitement de 10 millions d'événements répartis sur 5 modèles, 100 fonctionnalités et 20 itérations prend environ 23 minutes.

  • large— Le traitement de 10 millions d'événements répartis sur 5 modèles, 100 fonctionnalités et 100 itérations prend environ 27 minutes.

Le Fiddler La plate-forme AI Observability facilite la validation, le suivi et l'analyse des modèles de machine learning en production, notamment les modèles tabulaires, d'apprentissage profond, de vision par ordinateur et de traitement du langage naturel.

Nous recommandons les niveaux suivants de l'application Partner AI en fonction de la vitesse souhaitée pour la charge de travail :

  • small— Le traitement de 10 millions d'événements répartis sur 5 modèles, 100 fonctionnalités et 20 itérations prend environ 53 minutes.

  • medium— Le traitement de 10 millions d'événements répartis sur 5 modèles, 100 fonctionnalités et 20 itérations prend environ 23 minutes.

  • large— Le traitement de 10 millions d'événements répartis sur 5 modèles, 100 fonctionnalités et 100 itérations prend environ 27 minutes.

Lakera Guard est un pare-feu d'applications d'intelligence artificielle à faible latence destiné à protéger les applications d'IA génératives contre les menaces spécifiques à cette génération.

Nous recommandons les niveaux suivants de l'application Partner AI en fonction de la charge de travail :

  • small— Recommandé pour un maximum de 20 automatisations de processus robotiques (RPAs).

  • medium— Recommandé pour un maximum de 100 personnes RPAs.

  • large— Recommandé pour un maximum de 200 personnes RPAs.

Lakera Guard est un pare-feu d'applications d'intelligence artificielle à faible latence destiné à protéger les applications d'IA génératives contre les menaces spécifiques à cette génération.

Nous recommandons les niveaux suivants de l'application Partner AI en fonction de la charge de travail :

  • small— Recommandé pour un maximum de 20 automatisations de processus robotiques (RPAs).

  • medium— Recommandé pour un maximum de 100 personnes RPAs.

  • large— Recommandé pour un maximum de 200 personnes RPAs.

ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.