Now showing 1 - 1 of 1
No Thumbnail Available
Publication

Erklärbare Künstliche Intelligenz - Steigerung der Nachvollziehbarkeit überwachter maschineller Lernverfahren

2022 , Burkart, Nadia , Beyerer, Jürgen , Huber, Marco F.

Das Thema Künstliche Intelligenz und insbesondere das Gebiet der maschinellen Lernverfahren findet immer mehr Einzug in das tägliche Leben. In Zukunft werden die Verfahren verstärkt beispielsweise in der Medizin bei der Diagnose einer Krankheit oder im Bankenwesen beim Aufspüren von Geldwäschetransaktionen unterstützen. Vorbehalte gegenüber dem Einsatz der Verfahren sind oft mit der hohen Komplexität und der einhergehenden fehlenden Nachvollziehbarkeit der Modelle verbunden. Modelle, die durch ein maschinelles Lernverfahren erzeugt werden, gelten als Blackbox, da diese meist für die Anwender nicht nachvollziehbar sind. Es fehlen Erkenntnisse darüber, wie das Modell die Ergebnisse erzeugt. Das Forschungsfeld der Erklärbaren Künstlichen Intelligenz versucht, Lösungen zu konzipieren, die die Nachvollziehbarkeit von gesamten Modellen oder bestimmten Modellergebnissen erhöhen. Die vorliegende Arbeit leistet einen Beitrag zum Forschungsfeld der Erklärbaren KI – insbesondere im Teilbereich des erklärbaren überwachten maschinellen Lernens. Der erste wesentliche Beitrag der Arbeit umfasst den Entwurf eines Vorgehensmodells. Dieses definiert unterschiedliche Arten von Erklärungen, die im Bereich des überwachten maschinellen Lernens generiert werden können. Insgesamt werden fünf Arten von Erklärungen unterschieden, die sich grob in Modell- und Instanz-Erklärungen einteilen lassen. Ein weiterer wesentlicher Beitrag der Arbeit sind die entworfenen Verfahren zur Erstellung von Erklärungen. Basierend auf diesem Vorgehensmodell wurden zwei Verfahren entworfen: ein globales Surrogat-Modell und ein lokales Surrogat-Modell. Ausgehend von einem neuronalen Netz wird ein globales Surrogat-Modell in Form eines nachvollziehbaren Modells erzeugt, das sich somit den Modell-Erklärungen zuweisen lässt. Das Surrogat wird mithilfe der Regularisierung generiert, sodass dieses sowohl die Eigenschaften der Nachvollziehbarkeit als auch die der Genauigkeit erfüllt. Das lokale Surrogat-Modell hingegen versucht, die Nachvollziehbarkeit eines einzelnen Ergebnisses ausgehend von einer Blackbox zu erzeugen, und lässt sich den Instanz-Erklärungen zuordnen. Das Ziel ist es, eine Erklärung zu erhalten, die nahe an der Entscheidungsgrenze zur ursprünglichen Dateninstanz liegt. Diese Art der Erklärung ermöglicht es dem Anwender, bevorzugte Ergebnisse des Modells zu erzeugen. Erklärungen, die Modelle oder bestimmte Modellergebnisse nachvollziehbar gestalten, sind ein wichtiger Schritt im Prozess des erklärbaren maschinellen Lernens. Um die Nachvollziehbarkeit von Erklärungen zu untersuchen, ist es zwingend notwendig, den Nutzen generierter Erklärungen mit Anwendern zu analysieren. Daher umfasst ein weiterer wesentlicher Beitrag der Arbeit die Untersuchung der Nachvollziehbarkeit von Erklärungen im Rahmen von Benutzerstudien. Dabei wurden sowohl unterschiedliche Aufgabenstellungen als auch Anwendergruppen in die Untersuchungen miteinbezogen.