Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Divergence de Jensen-Shannon (JS)

Mode de mise au point
Divergence de Jensen-Shannon (JS) - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

La divergence de Jensen-Shannon (JS) mesure l'ampleur de la divergence des distributions d'étiquettes entre les différentes facettes, du point de vue entropique. Elle est basée sur la divergence de Kullback-Leibler, mais elle est symétrique.

La formule de la divergence de Jensen-Shannon est la suivante :

        JS = ½*[KL(Pa || P) + KL(Pd || P)]

Où P = ½ (Pa + Pd), la distribution moyenne des étiquettes entre les facettes a et d.

La plage de valeurs JS pour les résultats binaires, multicatégoriels et continus est de [0, ln (2)].

  • Les valeurs proches de zéro signifient que les distributions d'étiquettes sont similaires.

  • Les valeurs positives indiquent une divergence dans les distributions d'étiquettes, d'autant plus importante que le nombre de valeurs positives est élevé.

Cette métrique indique s'il existe une grande divergence dans l'une des étiquettes entre les facettes.

Rubrique suivante :

Norme Lp (LP)
ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.