Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Métriques de biais de pré-entraînement
La mesure du biais dans les modèles ML est une première étape pour atténuer ce biais. Chaque mesure de biais correspond à une notion différente d'équité. Même la prise en compte de concepts simples d'équité conduit à de nombreuses mesures différentes applicables dans divers contextes. Par exemple, considérez l'équité en lien avec l'âge et, par souci de simplicité, supposez que les groupes d'âge moyen et les autres groupes d'âge sont les deux éléments démographiques pertinents, appelés facettes. Dans le cas d'un modèle ML de prêt, nous pouvons souhaiter que des prêts aux petites entreprises soient accordés à un nombre égal des deux éléments démographiques. Ou bien, lors du traitement de demandeurs d'emploi, nous pouvons souhaiter qu'un nombre égal de membres de chaque groupe démographique soient embauchés. Cependant, comme cette approche peut supposer qu'un nombre égal de membres des deux groupes d'âge conviennent à ces emplois, nous pouvons vouloir conditionner ce nombre. De plus, nous pouvons vouloir considérer, non pas si des nombres égaux s'appliquent, mais si nous avons un nombre égal de candidats qualifiés. Ou alors, nous pouvons considérer que l'équité est un taux d'acceptation égal de candidats qualifiés pour les deux groupes d'âge, ou un taux de rejet égal de candidats, ou les deux. Vous pouvez utiliser des jeux de données avec des proportions de données différentes sur les attributs qui vous intéressent. Ce déséquilibre peut confondre la mesure de biais que vous choisissez. Les modèles peuvent être plus précis dans la classification d'une facette par rapport à l'autre. Par conséquent, vous devez choisir des métriques de biais appropriées, du point de vue conceptuel, tant pour l'application que la situation.
Nous utilisons la notation suivante pour parler des métriques de biais. Le modèle conceptuel décrit ici concerne la classification binaire. Selon cette classification, les événements sont étiquetés comme ayant seulement deux résultats possibles dans leur espace d'échantillonnage, soit un résultat positif (avec la valeur 1), soit un résultat négatif (avec la valeur 0). Ce cadre peut généralement être étendu de façon directe à la classification multicatégorielle, ou à des cas impliquant des résultats valorisés continus lorsque cela est nécessaire. Dans la classification binaire, des étiquettes positive et négative sont affectées aux résultats enregistrés dans un jeu de données brut pour une facette favorisée a et une facette défavorisée d. Ces étiquettes y sont appelées étiquettes observées pour les distinguer des étiquettes prédites y' qui sont affectées par un modèle de machine learning durant les étapes d'entraînement ou d'inférence du cycle de vie ML. Ces étiquettes servent à définir les distributions de probabilité Pa(y) et Pd(y) pour leurs résultats de facette respectifs.
-
étiquettes :
-
y représente les n étiquettes observées pour les résultats d'événements dans un jeu de données d'entraînement.
-
y' représente les étiquettes prédites pour les n étiquettes observées dans le jeu de données par un modèle entraîné.
-
-
résultats :
-
un résultat positif (avec la valeur 1) pour un échantillon, l'acceptation d'une demande par exemple.
-
n(1) est le nombre d'étiquettes observées pour les résultats positifs (acceptations).
-
n'(1) est le nombre d'étiquettes prédites pour les résultats positifs (acceptations).
-
-
un résultat négatif (avec la valeur 0) pour un échantillon, le rejet d'une demande par exemple.
-
n(0) est le nombre d'étiquettes observées pour les résultats négatifs (rejets).
-
n'(0) est le nombre d'étiquettes prédites pour les résultats négatifs (rejets).
-
-
-
valeurs de facettes :
-
facette a - La valeur de fonction qui définit un profil démographique qui favorise le biais.
-
na est le nombre d'étiquettes observées pour la valeur de facette favorisée : na = na(1) + na(0) la somme des étiquettes positives et négatives observées pour la facette de valeur a.
-
n'a est le nombre d'étiquettes prédites pour la valeur de facette favorisée : n'a = n'a(1) + n'a(0) la somme des étiquettes positives et négatives de résultats prédits pour la facette de valeur a. Vous noterez que n'a = na.
-
-
facette d - La valeur de fonction qui définit un profil démographique qui défavorise le biais.
-
nd est le nombre d'étiquettes observées pour la valeur de facette défavorisée : nd = nd(1) + nd(0) la somme des étiquettes positives et négatives observées pour la facette de valeur d.
-
n'd est le nombre d'étiquettes prédites pour la valeur de facette défavorisée : n'd = n'd(1) + n'd(0) la somme des étiquettes positives et négatives de résultats prédits pour la facette de valeur d. Vous noterez que n'd = nd.
-
-
-
distributions de probabilité pour les résultats des données de facettes étiquetées :
-
Pa(y) est la distribution de probabilité des étiquettes observées pour la facette a. Pour les données binaires étiquetées, cette distribution correspond au rapport entre le nombre d'échantillons dans la facette a étiquetés avec des résultats positifs et le nombre total, Pa(y1) = na(1)/ na, et au rapport entre le nombre d'échantillons étiquetés avec des résultats négatifs et le nombre total, Pa(y0) = na(0)/ na.
-
Pd(y) est la distribution de probabilité des étiquettes observées pour la facette d. Pour les données binaires étiquetées, cette distribution correspond au rapport entre le nombre d'échantillons dans la facette d étiquetés avec des résultats positifs et le nombre total, Pd(y1) = nd(1)/ nd, et au rapport entre le nombre d'échantillons étiquetés avec des résultats négatifs et le nombre total, Pd(y0) = nd(0)/ nd.
-
Les modèles entraînés sur des données biaisées par les disparités démographiques peuvent les apprendre, voire les exacerber. Pour identifier les biais dans les données avant de consacrer des ressources à l'entraînement des modèles, SageMaker Clarify fournit des mesures de biais de données que vous pouvez calculer sur des ensembles de données bruts avant l'entraînement. Toutes les métriques de pré-entraînement sont indépendantes du modèle, car elles ne dépendent pas des sorties du modèle, et elles sont donc valides pour n'importe quel modèle. La première métrique de biais examine le déséquilibre des facettes, mais pas les résultats. Elle détermine l'ampleur de la représentativité des données d'entraînement entre les différentes facettes, comme souhaité pour l'application. Les autres métriques de biais comparent la distribution des étiquettes de résultats de différentes manières pour les facettes a et d dans les données. Les métriques qui s'étendent sur des valeurs négatives peuvent détecter un biais négatif. Vous trouverez dans le tableau suivant une feuille de triche contenant des conseils rapides et des liens vers les métriques de biais de pré-entraînement.
Métriques de biais de pré-entraînement
Métrique de biais | Description | Exemple de question | Interpréter les valeurs de métriques |
---|---|---|---|
Déséquilibre de classe (CI) | Mesure le déséquilibre dans le nombre de membres entre les différentes valeurs de facettes. |
Pourrait-il y avoir des biais fondés sur l'âge en raison du manque de données pour la population en dehors d'une facette d'âge moyen ? |
Plage normalisée : [-1, +1] Interprétation :
|
Différence de proportions entre les étiquettes (DPL) | Mesure le déséquilibre dans les résultats positifs entre les différentes valeurs de facettes. | Pourrait-il y avoir des biais fondés sur l'âge dans les prédictions ML en raison de l'étiquetage biaisé des valeurs des facettes dans les données ? |
Plage pour les étiquettes de facettes binaires et multicatégorielles : [-1, +1] Plage pour les étiquettes continues : (-∞, +∞) Interprétation :
|
Divergence de Kullback-Leibler (KL) | Mesure l'ampleur de la divergence des distributions de résultats entre les différentes facettes du point de vue entropique. | Quelle est l'ampleur de la différence entre les distributions pour les résultats des demandes de prêt concernant les différents groupes démographiques ? |
Plage pour les résultats binaires, multicatégoriels ou continus : [0, +∞) Interprétation :
|
Divergence de Jensen-Shannon (JS) | Mesure l'ampleur de la divergence des distributions de résultats entre les différentes facettes du point de vue entropique. | Quelle est l'ampleur de la différence entre les distributions pour les résultats des demandes de prêt concernant les différents groupes démographiques ? |
Plage pour les résultats binaires, multicatégoriels ou continus : [0, +∞) Interprétation :
|
Norme Lp (LP) | Mesure une différence de norme p entre les distributions démographiques distinctes des résultats associés à différentes facettes d'un jeu de données. | Quelle est l'ampleur de la différence entre les distributions pour les résultats des demandes de prêt concernant les différents groupes démographiques ? |
Plage pour les résultats binaires, multicatégoriels ou continus : [0, +∞) Interprétation :
|
Distance de variation totale (TVD) | Mesure la moitié de la différence de la norme L1 entre les distributions démographiques distinctes des résultats associés à différentes facettes d'un jeu de données. | Quelle est l'ampleur de la différence entre les distributions pour les résultats des demandes de prêt concernant les différents groupes démographiques ? |
Plage pour les résultats binaires, multicatégoriels et continus : [0, +∞)
|
Kolmogorov-Smirnov (KS) | Mesure la divergence maximale entre les résultats dans les distributions pour différentes facettes d'un jeu de données. | Quels résultats en termes de dossiers d'admission à l'université présentent les plus grandes disparités selon le groupe démographique ? | Plage de valeurs KS pour les résultats binaires, multicatégoriels et continus : [0, +1]
|
Disparité démographique conditionnelle () CDD | Mesure la disparité globale des résultats entre les différentes facettes, mais aussi par sous-groupes. | La proportion de rejets des admissions à l'université de certains groupes est-elle supérieure à la proportion d'acceptations ? |
Gamme de CDD : [-1, +1]
|
Pour de plus amples informations sur les métriques de biais, veuillez consulter Fairness Measures for Machine Learning in Finance (Mesures d'équité pour le machine learning appliqué à la finance)