Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Ressources
Références
-
Adadi, Amina et Mohammed Berrada. 2018. « Un aperçu de l'intérieur de la boîte noire : une enquête sur l'intelligence artificielle explicable (XAI). » IEEE Access 6 : 52138—52160.
-
Ancône, Marco, Enea Ceolini, Cengiz Oztireli et Markus Gross. 2018. « Vers une meilleure compréhension des méthodes d'attribution basées sur les gradients pour les réseaux de neurones profonds. » Actes de la Conférence internationale sur les représentations de l'apprentissage (ICLR). Archiv : 1711.06104
. -
Dhamdhere, Kedar, Mukund Sundararajan et Qiqi Yan. 2018. « Quelle est l'importance d'un neurone ? » Actes de la trente-sixième Conférence internationale sur Machine Learning (ICML). ARXIV : 1805.12233
. -
Dua, Dheeru et Casey Graff. 2019. Référentiel de machine learning de l'Université de Californie à Irvine (UCI) [http://archive.ics.uci.edu/ml
]. Irvine, Californie : Université de Californie, École d'information et d'informatique. -
Kapishnikov, Andrei, Tolga Bolukbasi, Fernanda Viegas et Michael Terry. 2019. « XRAI : de meilleures attributions à travers les régions. » Actes de la conférence internationale IEEE/CVF sur la vision par ordinateur (ICCV) : 4948—4957. Fichier IV : 1906.02825
. -
Kim, Been, Martin Wattenberg, Justin Gilmer, Carrie Cai, James Wexler, Fernanda Viegas et Rory Sayres. 2018. « L'interprétabilité au-delà de l'attribution des fonctionnalités : tests quantitatifs avec des vecteurs d'activation conceptuelle (TCAV). » ARXIV : 1711.11279
. -
Lundberg, Scott M., Gabriel G. Erion et Su-In Lee. 2019. « Attribution cohérente et individualisée des fonctionnalités pour les ensembles d'arbres. » ARXIV : 1802.03888
. -
Lundberg, Scott M. et Su-In Lee. 2017. « Une approche unifiée pour l'interprétation des prédictions des modèles ». Progrès des systèmes neuronaux de traitement de l'information (NIPS) 30. ARXIV : 1705.07874
. -
Rajpurkar, Pranav, Jian Zhang, Konstantin Lopyrev et Percy Liang. 2016. « SQuad : plus de 100 000 questions pour la compréhension automatique du texte. » ARXIV : 1606.05250
. -
Ribeiro, Marco T., Sameer Singh et Carlos Guestrin. 2016. « Pourquoi devrais-je te faire confiance ? » : Expliquer les prédictions de n'importe quel classificateur. » KDD '16 : Actes de la 22e conférence internationale ACM SIGKDD sur la découverte des connaissances et l'exploration de données : 1135-1144. ARXIV : 1602.04938
. -
Sundararajan, Mukund, Ankur Taly et Qiqi Yan. 2017. « Attribution axiomatique pour les réseaux profonds. » Actes de la 34e Conférence internationale sur Machine Learning 70:3319—3328. ARXIV : 1703.01365
.
Packages logiciels externes
-
Capture : https://captum.ai/
Lectures supplémentaires
-
Explicabilité du modèle Amazon SageMaker Clarify (SageMaker documentation)
-
Référentiel Amazon SageMaker Clarify
(GitHub) -
Molnar, Christoph. Apprentissage automatique interprétable. Un guide pour rendre les modèles de boîtes noires explicables
, 2019.