Misura dei bias pre-addestramento - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Misura dei bias pre-addestramento

Misurare i bias nei modelli ML è un primo passo per mitigare i bias. Ogni misura di bias corrisponde a una diversa nozione di equità. Anche la considerazione di semplici concetti di equità porta a molte misure diverse applicabili in vari contesti. Si consideri, ad esempio, l'equità rispetto all'età e, per semplicità, che le due fasce demografiche rilevanti, denominate facet, siano gli individui di mezza età e il resto della popolazione. Nel caso di un modello di ML per l'erogazione di prestiti, potremmo volere che i prestiti alle piccole imprese vengano emessi a un numero uguale di entrambi i gruppi demografici. Oppure, quando elaboriamo i candidati per un lavoro, potremmo voler vedere un numero uguale di membri di ogni gruppo demografico assunti. Tuttavia, questo approccio può presupporre che per questi lavori si candidino lo stesso numero di persone di entrambe le fasce d'età, quindi potremmo decidere di stabilire una condizione per il numero di candidature. Inoltre, potremmo voler considerare non se si candidi lo stesso numero di persone, ma se abbiamo lo stesso numero di candidati qualificati. In alternativa, possiamo considerare l'equità come un uguale tasso di accettazione di candidati qualificati in entrambe le fasce di età, oppure un uguale tasso di rifiuto dei candidati, o entrambi. È possibile utilizzare set di dati con proporzioni diverse di dati sugli attributi di interesse. Questo squilibrio può confondere la misura di bias scelta. I modelli potrebbero essere più accurati nella classificazione di un facet rispetto all'altro. Pertanto, è necessario scegliere metriche di bias concettualmente appropriate per l'applicazione e la situazione.

Utilizziamo la seguente notazione per discutere le metriche di bias. Il modello concettuale qui descritto riguarda la classificazione binaria, in cui gli eventi sono etichettati come aventi solo due esiti possibili nel loro spazio di esempio, indicati come positivo (con valore 1) e negativo (con valore 0). Questo framework è generalmente estensibile alla classificazione multicategoria in modo semplice o ai casi che comportano esiti con valori continui quando necessario. Nel caso della classificazione binaria, le etichette positive e negative vengono assegnate agli esiti registrati in un set di dati non elaborati per un facet favorito a e per un facet sfavorito d. Queste etichette y vengono chiamate etichette osservate per distinguerle dalle etichette previste y' che vengono assegnate da un modello di machine learning durante le fasi di addestramento o inferenza del ciclo di vita ML. Queste etichette vengono utilizzate per definire le distribuzioni di probabilità Pa(y) e Pd(y) per i rispettivi esiti facet.

  • etichette:

    • y rappresenta le n etichette osservate per gli esiti degli eventi in un set di dati di addestramento.

    • y' rappresenta le etichette previste per le n etichette osservate nel set di dati di un modello addestrato.

  • esiti:

    • Un esito positivo (con valore 1) per un esempio, come l'accettazione di un'applicazione.

      • n(1) è il numero di etichette osservate per gli esiti positivi (accettazioni).

      • n'(1) è il numero di etichette previste per gli esiti positivi (accettazioni).

    • Un esito negativo (con valore 0) per un esempio, come il rifiuto di un'applicazione.

      • n(0) è il numero di etichette osservate per gli esiti negativi (rifiuti).

      • n'(0) è il numero di etichette previste per gli esiti negativi (rifiuti).

  • valori dei facet:

    • facet a: il valore della caratteristica che definisce un gruppo demografico favorito dalla distorsione.

      • na è il numero di etichette osservate per il valore del facet favorito: na = na(1) + na(0) è la somma delle etichette osservate positive e negative per il facet di valore a.

      • n'a è il numero di etichette previste per il valore del facet favorito: n'a = n'a(1) + n'a(0) è la somma delle etichette previste positive e negative per il valore del facet a. Nota che n'a = na.

    • facet d: il valore della funzionalità che definisce un gruppo demografico sfavorito dalla distorsione.

      • nd è il numero di etichette osservate per il valore del facet sfavorito: nd = nd(1) + nd(0) è la somma delle etichette osservate positive e negative per il valore del facet d.

      • n'd è il numero di etichette previste per il valore del facet sfavorito: n'd = n'd(1) + n'd(0) è la somma delle etichette previste positive e negative per il valore del facet d. Nota che n'd = nd.

  • distribuzioni di probabilità per gli esiti degli esiti dei dati del facet con etichetta:

    • Pa(y) è la distribuzione di probabilità delle etichette osservate per il facet a. Per i dati con etichetta binari, questa distribuzione è data dal rapporto tra il numero di esempi nel facet a etichettato con esiti positivi e il numero totale, Pa(y1) = na(1)/na, e dal rapporto tra il numero di esempi con esiti negativi e il numero totale, Pa(y0) = na(0)/na.

    • Pd(y) è la distribuzione di probabilità delle etichette osservate per il facet d. Per i dati con etichetta binari, questa distribuzione è data dal numero di esempi nel facet d etichettato con esiti positivi rispetto al numero totale, Pd(y1) = nd(1)/nd, e dal rapporto tra il numero di esempi con esiti negativi e il numero totale, Pd(y0) = nd(0)/nd.

I modelli addestrati su dati di parte rispetto a disparità demografiche potrebbero apprenderle e persino aggravarle. Per identificare le distorsioni nei dati prima di spendere risorse per addestrare modelli su di essi, SageMaker Clarify fornisce metriche di distorsione dei dati che puoi calcolare su set di dati grezzi prima dell'addestramento. Tutte le metriche pre-addestramento sono indipendenti dal modello perché non dipendono dagli output del modello e quindi sono valide per qualsiasi modello. La prima metrica di bias esamina lo squilibrio tra i facet, ma non gli esiti. Determina la misura in cui la quantità di dati di addestramento è rappresentativa tra i diversi facet, come richiesto per l'applicazione. Le restanti metriche di bias confrontano la distribuzione delle etichette degli esiti in vari modi per i facet a e d nei dati. Le metriche che analizzano i valori negativi possono rilevare bias negativi. La tabella seguente contiene una guida con istruzioni rapide e collegamenti alle metriche di bias pre-addestramento.

Metriche di bias pre-addestramento

Metrica di bias Descrizione Domanda di esempio Interpretazione dei valori delle metriche
Squilibrio di classe (CI) Misura lo squilibrio nel numero di membri tra diversi valori di facet.

Potrebbero esserci bias basati sull'età dovuti alla mancanza di dati sufficienti per la fascia demografica esterna a un facet di mezza età?

Intervallo normalizzato: [-1, +1]

Interpretazione:

  • I valori positivi indicano che il facet a contiene più esempi di addestramento nel set di dati.

  • I valori vicini allo zero indicano che i facet sono bilanciati nel numero di esempi di addestramento nel set di dati.

  • I valori negativi indicano che il facet d contiene più esempi di addestramento nel set di dati.

Differenza nelle proporzioni delle etichette () DPL Misura lo squilibrio nel numero di esiti positivi tra diversi valori di facet. Potrebbero esserci pregiudizi basati sull'età nelle previsioni del machine learning dovuti all'etichettatura di parte dei valori dei facet nei dati?

Intervallo per etichette di facet binarie e multicategoria normalizzate: [-1, +1]

Intervallo per etichette continue: (-∞, +∞)

Interpretazione:

  • I valori positivi indicano che il facet a ha una proporzione maggiore di esiti positivi.

  • I valori vicini allo zero indicano una proporzione più equa di esiti positivi tra i facet.

  • I valori negativi indicano che il facet d ha una proporzione maggiore di esiti positivi.

Divergenza Kullback-Leibler (KL) Misura in che misura le distribuzioni degli esiti dei diversi facet divergono l'una dall'altra entropicamente. Quanto sono diverse le distribuzioni degli esiti delle domande di prestito per i diversi gruppi demografici?

Intervallo binario, multicategoria, continuo: [0, +∞)

Interpretazione:

  • I valori vicini allo zero indicano che le etichette sono distribuite in modo simile.

  • I valori positivi indicano che le distribuzioni delle etichette divergono, più sono positivi e maggiore è la divergenza.

Divergenza Jensen-Shannon (JS) Misura in che misura le distribuzioni degli esiti dei diversi facet divergono l'una dall'altra entropicamente. Quanto sono diverse le distribuzioni degli esiti delle domande di prestito per i diversi gruppi demografici?

Intervallo binario, multicategoria, continuo: [0, +∞)

Interpretazione:

  • I valori vicini allo zero indicano che le etichette sono distribuite in modo simile.

  • I valori positivi indicano che le distribuzioni delle etichette divergono, più sono positivi e maggiore è la divergenza.

Lp-norm (LP) Misura una differenza p-norm tra diverse distribuzioni demografiche degli esiti associati a diversi facet in un set di dati. Quanto sono diverse le distribuzioni degli esiti delle domande di prestito per i diversi gruppi demografici?

Intervallo binario, multicategoria, continuo: [0, +∞)

Interpretazione:

  • I valori vicini allo zero indicano che le etichette sono distribuite in modo simile.

  • I valori positivi indicano che le distribuzioni delle etichette divergono, più sono positivi e maggiore è la divergenza.

Distanza di variazione totale () TVD Misura metà della differenza L1-norm tra diverse distribuzioni demografiche degli esiti associati a diversi facet in un set di dati. Quanto sono diverse le distribuzioni degli esiti delle domande di prestito per i diversi gruppi demografici?

Intervallo per esiti binari, multicategoria e continui: [0, +∞)

  • I valori vicini allo zero indicano che le etichette sono distribuite in modo simile.

  • I valori positivi indicano che le distribuzioni delle etichette divergono, più sono positivi e maggiore è la divergenza.

Kolmogorov-Smirnov (KS) Misura la massima divergenza tra gli esiti nelle distribuzioni per i diversi facet di un set di dati. Quali esiti delle domande di ammissione all'università manifestano le maggiori disparità per gruppo demografico? Intervallo di valori KS per esiti binari, multicategoria e continui: [0, +1]
  • I valori vicini allo zero indicano che le etichette si sono distribuite uniformemente tra i facet in tutte le categorie di esiti.

  • I valori vicini a uno indicano che le etichette di una categoria erano tutte riunite in un unico facet, quindi molto squilibrate.

  • I valori intermittenti indicano gradi relativi di massimo squilibrio delle etichette.

Disparità demografica condizionata () CDD Misura la disparità degli esiti tra i diversi facet nel loro insieme, ma anche tra sottogruppi. Alcuni gruppi hanno una proporzione maggiore di rifiuti come esiti dell'ammissione all'università rispetto alla proporzione di accettazioni?

Intervallo di: [-1, +1] CDD

  • I valori positivi indicano un esito in cui il facet d viene rifiutato più che accettato.

  • I valori vicini allo zero indicano l'assenza di disparità demografica, in media.

  • I valori negativi indicano un esito in cui il facet a viene rifiutato più che accettato.

Per ulteriori informazioni sulle metriche di bias, consulta Misure di equità per il machine learning nella finanza.