Divergencia de Jensen-Shannon (JS) - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Divergencia de Jensen-Shannon (JS)

La divergencia de Jensen-Shannon (JS) mide en qué medida las distribuciones de etiquetas de diferentes facetas divergen entrópicamente entre sí. Se basa en la divergencia de Kullback-Leibler, pero es simétrica.

La fórmula de la divergencia de Jensen-Shannon es la siguiente:

        JS = ½*[KL(Pa || P) + KL(Pd || P)]

Donde P = ½( Pa + Pd ), la distribución media de las etiquetas en las facetas a y d.

El rango de valores JS para los resultados binarios, multicategoría y continuos es [0, ln(2)).

  • Los valores cercanos a cero indican que las etiquetas están distribuidas de forma similar.

  • Los valores positivos indican que las distribuciones de las etiquetas son divergentes; cuanto más positivas, mayor es la divergencia.

Esta métrica indica si hay una gran divergencia en una de las etiquetas en todas las facetas.