Options
2019
Book Article
Title
Extraktion von Erklärungen zu Produktionsprozessen aus künstlichen Neuronalen Netzen
Abstract
Ein Hindernis das bisher, vorwiegend in kritischen Anwendungdomänen, die Einführung maschineller Lernmodelle verhindert, ist deren mangelnde Erklärbarkeit. In diesem Beitrag wird ein praktikabler Ansatz zur Gewinnung von Erklärbarkeit von tiefen künstlichen neuronalen Netzen am Beispiel eines Anwendungsfalls aus dem Tiefdruck vorgestellt. Im vorliegenden Fall wird Erklärbarkeit mit Hilfe eines interpretierbaren Stellvertretermodells auf der Basis von Entscheidungsbäumen erreicht. Der Einsatz einer L1-orthogonalen Regularisierung während des Trainings des neuronalen Netzes führt dazu, dass aus dem Netz extrahierte Entscheidungsbäume eine geringe Größe und mit hoher Wiedergabetreue haben und somit gut verständlich sind.