Surveiller un test shadow - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Surveiller un test shadow

Vous pouvez consulter les détails d'un test parallèle et le surveiller pendant qu'il est en cours ou une fois terminé. SageMaker L'IA présente un tableau de bord en temps réel comparant les indicateurs opérationnels tels que la latence du modèle et le taux d'erreur agrégé, de la production et des variantes fictives.

Pour afficher les détails d'un test individuel dans la console, procédez comme suit :

  1. Sélectionnez le test que vous voulez surveiller dans la section Shadow test (Test shadow) de la page Shadow tests (Tests shadow).

  2. Dans la liste déroulante Actions, choisissez View (Afficher). Une page de présentation contenant les détails du test et un tableau de bord des métriques s'affiche.

La page de présentation comporte les trois sections suivantes.

Récapitulatif

Cette section résume la progression et le statut du test. Il affiche également les statistiques récapitulatives de la métrique choisie dans la liste déroulante Select metric (Sélectionner une métrique) de la sous-section Metrics (Métriques). La capture d'écran suivante montre cette section.

Section récapitulative de la page de présentation.

Dans la capture d'écran précédente, les onglets Settings (Paramètres) et Details (Détails) affichent les paramètres que vous avez sélectionnés et les détails que vous avez saisis lors de la création du test.

Analyse

Cette section montre un tableau de bord de métriques avec des graphiques séparés pour les métriques suivantes :

  • Invocations

  • InvocationsPerInstance

  • ModelLatency

  • Invocation4XXErrors

  • Invocation5XXErrors

  • InvocationModelErrors

  • CPUUtilization

  • MemoryUtilization

  • DiskUtilization

Les trois dernières métriques surveillent l'utilisation des ressources d'exécution du conteneur modèle. Les autres sont CloudWatch des indicateurs que vous pouvez utiliser pour analyser les performances de votre variante. En général, moins d'erreurs indiquent un modèle plus stable. Une latence plus faible indique soit un modèle plus rapide, soit une infrastructure plus rapide. Pour plus d'informations sur CloudWatch les métriques, consultezSageMaker Métriques d'invocation des terminaux AI. La capture d'écran suivante montre le tableau de bord des métriques.

Tableau de bord d'analyse des métriques.
Environnement

Cette section présente les variantes que vous avez comparées lors du test. Si vous êtes satisfait des performances de la variante shadow, sur la base des métriques susmentionnées, vous pouvez promouvoir la variante shadow en production en choisissant Deploy shadow variant (Déployer la variante shadow). Pour plus de détails sur le déploiement d'une variante shadow, consultez Promotion d'une variante shadow. Vous pouvez également modifier le pourcentage d'échantillonnage du trafic et poursuivre les tests en choisissant Edit traffic (Modifier le trafic). Pour plus de détails sur la modification d'une variante shadow, consultez Modifier un test shadow. La capture d'écran suivante montre cette section.

Section Environnement de la page de présentation.