Présentation - AWS Directives prescriptives

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Présentation

Il n'existe pas de définition universellement acceptée de ce qu'est un modèle interprétable ou de l'information adéquate en tant qu'interprétation d'un modèle. Ce guide se concentre sur la notion couramment utilisée d'importance des caractéristiques, selon laquelle un score d'importance pour chaque caractéristique en entrée est utilisé pour interpréter la façon dont elle affecte les sorties du modèle. Cette méthode fournit des informations mais nécessite également de la prudence. Les scores d'importance des fonctionnalités peuvent être trompeurs et doivent être analysés avec soin, y compris une validation par des experts en la matière si possible. Plus précisément, nous vous conseillons de ne pas vous fier aux scores d'importance des fonctionnalités sans vérification, car des interprétations erronées peuvent mener à de mauvaises décisions commerciales.

Dans l'illustration suivante, les caractéristiques mesurées d'un iris sont transmises à un modèle qui prédit l'espèce de la plante, et les importances des caractéristiques associées (attributions SHAP) pour cette prédiction sont affichées. Dans ce cas, la longueur des pétales, la largeur des pétales et la longueur des sépales contribuent toutes positivement à la classification d'Iris virginica, mais la largeur des sépales a une contribution négative. (Ces informations sont basées sur le jeu de données sur l'iris de [4].)

Prédire un iris à l'aide de caractéristiques mesurées et d'attributions SHAP

Les scores d'importance des caractéristiques peuvent être globaux, indiquant que le score est valide pour le modèle pour toutes les entrées, ou locaux, indiquant que le score s'applique à une seule sortie du modèle. Les scores d'importance des caractéristiques locales sont souvent mis à l'échelle et additionnés pour produire la valeur de sortie du modèle, et sont donc appelés attributions. Les modèles simples sont considérés comme plus interprétables, car les effets des caractéristiques d'entrée sur les résultats du modèle sont plus faciles à comprendre. Par exemple, dans un modèle de régression linéaire, les magnitudes des coefficients fournissent un score global d'importance des caractéristiques, et pour une prédiction donnée, l'attribution d'une caractéristique locale est le produit de son coefficient et de la valeur de la caractéristique. En l'absence d'un score d'importance des entités locales direct pour une prédiction, vous pouvez calculer un score d'importance à partir d'un ensemble d'entités en entrée de référence afin de comprendre la contribution d'une entité par rapport à la ligne de base.