Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Risorse
Riferimenti
-
Adadi, Amina e Mohammed Berrada. 2018. «Sbirciare all'interno della scatola nera: un'indagine sull'intelligenza artificiale spiegabile (XAI)». Accesso IEEE 6: 52138—52160.
-
Ancona, Marco, Enea Ceolini, Cengiz Oztireli e Markus Gross. 2018. «Verso una migliore comprensione dei metodi di attribuzione basati sul gradiente per le reti neurali profonde». Atti della Conferenza internazionale sulle rappresentazioni dell'apprendimento (ICLR). Archivio:1711.06104
. -
Dhamdhere, Kedar, Mukund Sundararajan e Qiqi Yan. 2018. «Quanto è importante un neurone?» Atti della trentaseiesima Conferenza Internazionale sull'Machine Learning Automatico (ICML). Archivi: 1805.1223
. -
Dua, Dheeru e Casey Graff. 2019. UCI Machine Learning Repository [http://archive.ics.uci.edu/ml
]. Irvine, CA: Università della California, Facoltà di Informazione e Informatica. -
Kapishnikov, Andrei, Tolga Bolukbasi, Fernanda Viegas e Michael Terry. 2019. «XRAI: migliori attribuzioni attraverso le regioni». Atti della Conferenza internazionale IEEE/CVF sulla visione artificiale (ICCV): 4948—4957. Archivio: 1906.02825
. -
Kim, Ben, Martin Wattenberg, Justin Gilmer, Carrie Cai, James Wexler, Fernanda Viegas e Rory Sayres. 2018. «Interpretabilità oltre l'attribuzione delle caratteristiche: test quantitativi con vettori di attivazione concettuale (TCAV)». Archivi:1711.11279
. -
Lundberg, Scott M., Gabriel G. Erion e Su-In Lee. 2019. «Attribuzione coerente e personalizzata delle caratteristiche per insiemi di alberi». Archivi:1802.03888
. -
Lundberg, Scott M. e Su-In Lee. 2017. «Un approccio unificato all'interpretazione delle previsioni dei modelli». Progressi nei sistemi di elaborazione delle informazioni neurali (NIPS) 30. Archivi:1705.07874
. -
Rajpurkar, Pranav, Jian Zhang, Konstantin Lopyrev e Percy Liang. 2016. «sQuad: oltre 100.000 domande per la comprensione automatica del testo». Archivi: 1606.05250
. -
Ribeiro, Marco T., Sameer Singh e Carlos Guestrin. 2016. «'Perché dovrei fidarmi di te? ' : Spiegazione delle previsioni di qualsiasi classificatore.» KDD '16: Atti della 22a Conferenza internazionale ACM SIGKDD sulla scoperta della conoscenza e l'estrazione dei dati: 1135-1144. Archivi:1602.04938
. -
Sundararajan, Mukund, Ankur Taly e Qiqi Yan. 2017. «Attribuzione assiomatica per reti profonde». Atti della 34a Conferenza internazionale sull'Machine Learning 70: 3319—3328. Archivio: 1703.01365
.
Pacchetti software esterni
-
Captum: https://captum.ai/
Lettura aggiuntiva
-
Spiegabilità del modello Amazon SageMaker Clarify (SageMaker documentazione)
-
Archivio Amazon SageMaker Clarify
(GitHub) -
Molnar, Christoph. Apprendimento automatico interpretabile. Una guida per rendere spiegabili i modelli Black Box
, 2019.