Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Referenzen
Breiman, L. 2001. „Zufällige Wälder.“ Machine Learning. https://doi.org/10.1023/A:1010933404324
Estlund, D. M. 1994. „Meinungsführer, Unabhängigkeit und Jurytheorem von Condorcet.“ Theorie und Entscheidungaus.https://doi.org/10.1007/BF01079210
Fort, S., H. Hu und B. Lakshminarayanan. 2019 „Tiefe Ensembles: Eine Loslandschaftsperspektive.“ 2, 1-14https://arxiv.org/abs/1912.02757
Freund, Y. und R.E. Schapire. 1996 „Experimente mit einem neuen Boosting-Algorithmus.“ Verfahren der13. In International Conference on Machine Learningaus.https://dl.acm.org/doi/10.5555/3091696.3091715
Gal, Y. 2016. „Unsicherheit im Deep Learning.“ Abteilung für Ingenieurwesen. Universität Cambridge.
Gal, Y. und Z. Ghahramani. 2016. „Abbrecher als bayessche Annäherung: Stellt die Modellunsicherheit im Deep Learning dar.“ 33. In International Conference on Machine Learning (ICML 2016)aus.https://arxiv.org/abs/1506.02142
Guo, C., G. Pleiss, Y. Sun und K.Q. Weinberger. 2017 „Zur Kalibrierung moderner neuronaler Netze.“ 34. In International Conference on Machine Learning (ICML 2017)aus.https://arxiv.org/abs/1706.04599
Hein, M., M. Andriushchenko und J. Bitterwolf. 2019 „Warum ReLu Networks Vertrauensprognosen weit weg von den Trainingsdaten liefern und wie das Problem gemildert werden kann.“ 2019 Verfahren der IEEE Computer Society Konferenz über Computer Vision und Mustererkennung(Juni 2019): 41—50.https://doi.org/10.1109/CVPR.2019.00013
Kendall, A. und Y. Gal. 2017 „Welche Unsicherheiten brauchen wir im bayesischen Deep Learning für Computer Vision?“ Fortschritte bei neuronalen Informationsverarbeitungssystemenaus.https://papers.nips.cc/paper/7141-what-uncertainties-do-we-need-in-bayesian-deep-learning-for-computer-vision
Lakshminarayanan, B., A. Pritzel und C. Blundell. 2017 „Einfache und skalierbare vorausschauende Unsicherheitsschätzung mit Deep Ensembles.“ Fortschritte bei neuronalen Informationsverarbeitungssystemenaus.https://arxiv.org/abs/1612.01474
Liu, Y., M. Ott, N. Goyal, J. Du, M. Joshi, D. Chen, O. Levy, M. Lewis, L. Zettlemoyer und V. Stoyanov. 2019 „RobertA: Ein robust optimierter BERT-Vorschulungsansatz.“ https://arxiv.org/abs/1907.11692
Nado, Z., S. Padhy, D. Sculley, A. D'Amour, B. Lakshminarayanan und J. Snoek. 2020. „Bewertung der Chargennormalisierung der Prognosezeit auf Robustheit unter Kovariatenverschiebung.“ https://arxiv.org/abs/2006.10963
Nalisnick, E., A. Matsukawa, Y.W. Teh, D. Gorur und B. Lakshminarayanan. 2019 „Wissen Deep Generative Models, was sie nicht wissen?“ 7. Internationale Konferenz über Lernvertretungen (ICLR 2019)aus.https://arxiv.org/abs/1810.09136
Ovadia, Y., E. Fertig, J. Ren, Z. Nado, D. Sculley, S. Nowozin, J.V. Dillon, B. Lakshminarayanan und J. Snoek. 2019 „Können Sie der Unsicherheit Ihres Modells vertrauen? Auswertung der vorausschauenden Unsicherheit unter Datensatzverschiebung.“ 33. Konferenz über Neuronale Informationsverarbeitungssysteme (NeurIPs 2019)aus.https://arxiv.org/abs/1906.02530
Platt, J. und andere. 1999 „Probabilistische Ausgaben für Support Vector Machines und Vergleiche mit regularisierten Likelihood Methoden.“ Fortschritte bei Klassifikatoren mit großer Margeaus.http://citeseer.ist.psu.edu/viewdoc/summary?doi=10.1.1.41.1639
Srivastava, N., G. Hinton, A. Krizhevsky, I. Sutskever und R. Salakhutdinov. 2014 „Ausfallende: Eine einfache Möglichkeit zu verhindern, dass neuronale Netze übermäßig angepasst werden.“ Zeitschrift für Machine Learningaus.https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf
van Amersfoort, J., L. Smith, Y.W. Teh und Y. Gal. 2020. „Unsicherheitsschätzung unter Verwendung eines einzigen tiefen deterministischen neuronalen Netzes.“ In International Conference für Machine Learningaus.https://arxiv.org/abs/2003.02037
Warstadt, A., A. Singh und S.R. Bowman. 2019 „Urteile zur Akzeptanz des neuronalen Netzes.“ Transaktionen des Vereins für Computerlinguistikaus.https://doi.org/10.1162/tacl_a_00290
Wilson, A. G., und P. Izmailov. 2020. „Bayesian Deep Learning und eine probabilistische Perspektive der Verallgemeinerung.“ https://arxiv.org/abs/2002.08791