Quantificazione dell'incertezza nei sistemi di deep learning - AWS Guida prescrittiva

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Quantificazione dell'incertezza nei sistemi di deep learning

Josiah Davis, Jason Zhu e Jeremy Oldfather, Amazon Web Services (AWS)

Samual MacDonald e Maciej Trzaskowski, Max Kelsen

Agosto 2020(cronologia dei documenti)

Fornire soluzioni di Machine Learning (ML) alla produzione è difficile. Non è facile sapere da dove iniziare, quali strumenti e tecniche usare e se lo stai facendo nel modo giusto. I professionisti del machine learning utilizzano tecniche diverse in base alle loro esperienze individuali oppure utilizzano strumenti prescritti sviluppati all'interno della loro azienda. In entrambi i casi, decidere cosa fare, implementare la soluzione e mantenerla richiedono investimenti significativi in tempo e risorse. Sebbene le tecniche di apprendimento automatico esistenti aiutino ad accelerare alcune parti del processo, l'integrazione di queste tecniche per fornire soluzioni solide richiede mesi di lavoro. Questa guida è la prima parte di una serie di contenuti incentrata sull'apprendimento automatico e fornisce esempi di come iniziare rapidamente. L'obiettivo della serie è aiutarti a standardizzare l'approccio ML, prendere decisioni di progettazione e fornire le tue soluzioni ML in modo efficiente. Pubblicheremo guide ML aggiuntive nei prossimi mesi, quindi controlla ilAWSGuida prescrittivasito web per gli aggiornamenti.

Questa guida esplora le tecniche attuali per quantificare e gestire l'incertezza nei sistemi di deep learning, per migliorare la modellazione predittiva nelle soluzioni ML. Questo contenuto è destinato a data scientist, ingegneri dei dati, ingegneri del software e leader della scienza dei dati che desiderano fornire soluzioni ML di alta qualità e pronte per la produzione in modo efficiente e su larga scala. Le informazioni sono rilevanti per i data scientist indipendentemente dal loro ambiente cloud o dai Amazon Web Services (AWS) servizi che stanno utilizzando o intendono utilizzare.

Questa guida presuppone la familiarità con i concetti introduttivi di probabilità e deep learning. Per suggerimenti su come sviluppare competenze di machine learning nella tua organizzazione, consultaDeep learning Specializationsul sito web di Coursera o sulle risorse sulMachine Learning: Data scientistpagina sulAWSSito web di formazione e certificazione.

Introduzione

Se il successo nella scienza dei dati è definito dalle prestazioni predittive dei nostri modelli, il deep learning è sicuramente un ottimo strumento. Ciò è particolarmente vero per le soluzioni che utilizzano modelli non lineari e ad alta dimensione da set di dati molto grandi. Tuttavia, se il successo è definito anche dalla capacità di ragionare con incertezza e rilevare i fallimenti nella produzione, l'efficacia del deep learning diventa discutibile. Come possiamo quantificare al meglio l'incertezza? Come utilizziamo queste incertezze per gestire i rischi? Quali sono le patologie dell'incertezza che mettono alla prova l'affidabilità, e quindi la sicurezza, dei nostri prodotti? E come possiamo superare queste sfide?

Questa guida:

  • Introduce la motivazione per quantificare l'incertezza nei sistemi di deep learning

  • Spiega importanti concetti di probabilità relativi al deep learning

  • Dimostra l'attuale state-of-the-art tecniche per quantificare l'incertezza nei sistemi di deep learning, evidenziandone i vantaggi e i limiti associati

  • Esplora queste tecniche nell'ambito del transfer learning dell'elaborazione del linguaggio naturale (NLP)

  • Fornisce un case study ispirato a progetti eseguiti in un ambiente simile

Come discusso in questa guida, per quantificare l'incertezza nel deep learning, una buona regola empirica consiste nell'utilizzare il ridimensionamento della temperatura con insiemi profondi.

  • La scala della temperatura è uno strumento ideale per interpretare le stime di incertezza quando i dati possono essere considerati nella distribuzione (Guo e altri 2017).

  • Deep ensemble forniscono state-of-the-art stime dell'incertezza relativa alla mancata distribuzione dei dati (Ovadia e altri 2019).

Se l'ingombro di memoria dei modelli di hosting è un problema, puoi utilizzare il dropout di Monte Carlo (MC) al posto di gruppi profondi. Nel caso del transfer learning, valuta la possibilità di utilizzare MC dropout o deep ensemble con MC dropout.