Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Norme Lp (LP)
La norme Lp (LP) mesure la distance de la norme p entre les distributions de facettes des étiquettes observées dans un jeu de données d'entraînement. Cette métrique n'est pas négative et ne peut donc pas détecter le biais inverse.
La formule pour la norme Lp est la suivante :
Lp(Pa, Pd) = ( ∑y||Pa - Pd||p)1/p
Lorsque la distance de la norme p entre les points x et y est définie comme suit :
Lp(x, y) = (|x1-y1|p + |x2-y2|p + … +|xn-yn|p)1/p
La norme 2 est la norme euclidienne. Supposons que vous avez une distribution de résultats avec trois catégories, par exemple, yi = {y0, y1, y2} = {accepté, sur liste d'attente, rejeté} dans un scénario multicatégoriel d'admission à l'université. Vous prenez la somme des carrés des différences entre les nombres de résultats pour les facettes a et d. La distance euclidienne obtenue est calculée de la manière suivante :
L2(Pa, Pd) = [(na(0) - nd(0))2 + (na(1) - nd(1))2 + (na(2) - nd(2))2]1/2
Où :
-
na(i) est le nombre des résultats de la énième catégorie dans la facette a : par exemple na(0) est le nombre d'acceptations de la facette a.
-
nd(i) est le nombre des résultats de la énième catégorie dans la facette d : par exemple nd(2) est le nombre de rejets de la facette d.
La plage de valeurs JS pour les résultats binaires, multicatégoriels et continus est de [0, √2), où :
-
Les valeurs proches de zéro signifient que les distributions d'étiquettes sont similaires.
-
Les valeurs positives indiquent une divergence dans les distributions d'étiquettes, d'autant plus importante que le nombre de valeurs positives est élevé.
-