Options
2021
Internet Contribution
Title
Blick in die Black Box: Erklärbarkeit maschineller Lernverfahren
Title Supplement
Beitrag auf der Internetseite DGQ - Deutsche Gesellschaft für Qualität, Wissen & Forschung (https://www.dgq.de), 2. Februar 2021
Abstract
In den letzten Jahren hat das maschinelle Lernen (ML) als Teildisziplin der künstlichen Intelligenz in vielen Bereichen, wie etwa der Produktion oder Medizin, verstärkt an Bedeutung gewonnen. Immer wichtiger wird dabei das sogenannte Deep Learning, das heißt das Training tiefer künstlicher neuronaler Netze (KNN) mittels großer Datensätze für eine bestimmte Aufgabe. Oftmals übertreffen Modelle, die durch Deep Learning erstellt wurden, sogar den Menschen (OpenAI 2019). Allerdings stellen viele ML-Verfahren, und hierzu zählen auch die gerade genannten tiefen KNN, eine Art "Black Box" dar. Das bedeutet, dass getroffene Entscheidungen dieser Verfahren aufgrund komplexer interner Prozesse für den Menschen - selbst für Experten - oft nicht nachvollziehbar sind. Diese mangelnde Transparenz und Nachvollziehbarkeit sind für einige Anwendungen unkritisch, beispielsweise für Empfehlungssysteme auf Online-Plattformen oder maschinelle Textübersetzungen. Für viele andere Anwendungsfälle jedoch besteht ein berechtigtes Interesse daran, Transparenz und Erklärbarkeit zu erlangen. So werden immer wieder Fälle bekannt, in denen fehlerhafte Kl-basierte Entscheidungen gravierende Auswirkungen haben können. Beispiele hierfür sind die Benachteiligung Schwarzer Bürger durch die COMPAS-Software (Angwin et al. 2016), die Erkennung von Lungenentzündungen anhand von nicht ursächlichen Bildmarkierungen (Zech 2018) oder gar tödliche Unfälle mit selbstfahrenden Autos (Levin et al. 2018).