Options
2022
Doctoral Thesis
Title
Erklärbare Künstliche Intelligenz - Steigerung der Nachvollziehbarkeit überwachter maschineller Lernverfahren
Abstract
Das Thema Künstliche Intelligenz und insbesondere das Gebiet der maschinellen Lernverfahren findet immer mehr Einzug in das tägliche Leben. In Zukunft werden die Verfahren verstärkt beispielsweise in der Medizin bei der Diagnose einer Krankheit oder im Bankenwesen beim Aufspüren von Geldwäschetransaktionen unterstützen. Vorbehalte gegenüber dem Einsatz der Verfahren sind oft mit der hohen Komplexität und der einhergehenden fehlenden Nachvollziehbarkeit der Modelle verbunden. Modelle, die durch ein maschinelles Lernverfahren erzeugt werden, gelten als Blackbox, da diese meist für die Anwender nicht nachvollziehbar sind. Es fehlen Erkenntnisse darüber, wie das Modell die Ergebnisse erzeugt. Das Forschungsfeld der Erklärbaren Künstlichen Intelligenz versucht, Lösungen zu konzipieren, die die Nachvollziehbarkeit von gesamten Modellen oder bestimmten Modellergebnissen erhöhen. Die vorliegende Arbeit leistet einen Beitrag zum Forschungsfeld der Erklärbaren KI – insbesondere im Teilbereich des erklärbaren überwachten maschinellen Lernens. Der erste wesentliche Beitrag der Arbeit umfasst den Entwurf eines Vorgehensmodells. Dieses definiert unterschiedliche Arten von Erklärungen, die im Bereich des überwachten maschinellen Lernens generiert werden können. Insgesamt werden fünf Arten von Erklärungen unterschieden, die sich grob in Modell- und Instanz-Erklärungen einteilen lassen. Ein weiterer wesentlicher Beitrag der Arbeit sind die entworfenen Verfahren zur Erstellung von Erklärungen. Basierend auf diesem Vorgehensmodell wurden zwei Verfahren entworfen: ein globales Surrogat-Modell und ein lokales Surrogat-Modell. Ausgehend von einem neuronalen Netz wird ein globales Surrogat-Modell in Form eines nachvollziehbaren Modells erzeugt, das sich somit den Modell-Erklärungen zuweisen lässt. Das Surrogat wird mithilfe der Regularisierung generiert, sodass dieses sowohl die Eigenschaften der Nachvollziehbarkeit als auch die der Genauigkeit erfüllt. Das lokale Surrogat-Modell hingegen versucht, die Nachvollziehbarkeit eines einzelnen Ergebnisses ausgehend von einer Blackbox zu erzeugen, und lässt sich den Instanz-Erklärungen zuordnen. Das Ziel ist es, eine Erklärung zu erhalten, die nahe an der Entscheidungsgrenze zur ursprünglichen Dateninstanz liegt. Diese Art der Erklärung ermöglicht es dem Anwender, bevorzugte Ergebnisse des Modells zu erzeugen.
Erklärungen, die Modelle oder bestimmte Modellergebnisse nachvollziehbar gestalten, sind ein wichtiger Schritt im Prozess des erklärbaren maschinellen Lernens. Um die Nachvollziehbarkeit von Erklärungen zu untersuchen, ist es zwingend notwendig, den Nutzen generierter Erklärungen mit Anwendern zu analysieren. Daher umfasst ein weiterer wesentlicher Beitrag der Arbeit die Untersuchung der Nachvollziehbarkeit von Erklärungen im Rahmen von Benutzerstudien. Dabei wurden sowohl unterschiedliche Aufgabenstellungen als auch Anwendergruppen in die Untersuchungen miteinbezogen.
Erklärungen, die Modelle oder bestimmte Modellergebnisse nachvollziehbar gestalten, sind ein wichtiger Schritt im Prozess des erklärbaren maschinellen Lernens. Um die Nachvollziehbarkeit von Erklärungen zu untersuchen, ist es zwingend notwendig, den Nutzen generierter Erklärungen mit Anwendern zu analysieren. Daher umfasst ein weiterer wesentlicher Beitrag der Arbeit die Untersuchung der Nachvollziehbarkeit von Erklärungen im Rahmen von Benutzerstudien. Dabei wurden sowohl unterschiedliche Aufgabenstellungen als auch Anwendergruppen in die Untersuchungen miteinbezogen.
;
Artificial Intelligence, and in particular the field of machine learning, is becoming increasingly important in our everyday lives. In the future, these methods will increasingly be used, for example, in medicine to help diagnose illnesses or in banking to detect money laundering. Reservations about the use of these methods are very often associated with their high complexity and the associated lack of explainability. Models generated by machine learning methods are considered a black box because they are usually incomprehensible to the user. There is a lack of insight into how the model generates the results. The research field of Explainable Artificial Intelligence tries to design solutions that make entire models or specific model results comprehensible. This thesis contributes to the research field of XAI, especially in the subfield of explainable supervised machine learning. The first major contribution of the work is the design of a procedure model which defines different types of explanations that can be generated in this subfield. In total, five types of explanations are distinguished, and these can be roughly divided into model and instance explanations. Another major contribution of the work is its procedures for generating explanations. Based on this procedure model, two procedures were designed: a global surrogate model and a local surrogate model. Starting from a neural network, a global surrogate model is generated in the form of a comprehensible surrogate model. The surrogate is generated using regularization so that it satisfies both the properties of explainability and accuracy. The local surrogate model generates the explainability of a single instance starting from a black box. The goal is to generate an explanation that is close to the decision boundary of the original data instance. This type of explanation allows the user to generate preferred outcomes. Explanations that make models or specific model results comprehensible are an important step in the process of explainable machine learning. To investigate the comprehensibility of explanations, the utility of generated explanations must be investigated with users. Therefore, another major contribution of the thesis is the investigation of the comprehensibility of explanations in the context of user studies. Different tasks and user groups were included in these investigations.
Thesis Note
Karlsruhe, Karlsruher Institut für Technologie (KIT), Diss., 2022