Fraunhofer-Gesellschaft

Publica

Hier finden Sie wissenschaftliche Publikationen aus den Fraunhofer-Instituten.

Tief erlernte Gesichter von Schmerz und Emotionen: Aufklärung der Unterschiede von Gesichtsausdrücken mithilfe erklärbarer KI-Methoden

Deep-learned faces of pain and emotions: Elucidating the differences of facial expressions with the help of explainable AI methods
 
: Weitz, K.; Hassan, T.; Schmid, U.; Garbas, J.-U.

:

Technisches Messen : TM 86 (2019), No.7-8, pp.404-412
ISSN: 0340-837X
ISSN: 0171-8096 (Print)
ISSN: 2196-7113 (Online)
German
Journal Article
Fraunhofer IIS ()

Abstract
Tiefe neuronale Netze werden erfolgreich für die Objekt- und Gesichtserkennung in Bildern und Videos verwendet. Die derzeiten Ansätze sind jedoch nur begrenzt in der Praxis, zum Beispiel zur Schmerzerkennung, verwendbar. Der Vorteil von Deep Learning Methoden liegt darin, dass sie in der Lage sind, komplexe, nichtlineare Zusammenhänge zwischen Rohdaten und Zielklassen zu lernen, ohne dass sie auf händisch durch Menschen generierte Merkmale angewiesen sind. Der Nachteil dieser Netzwerke besteht darin, dass sie sehr komplex sind und daher für Menschen schwer zu verstehen ist, warum das Netz zu seiner Entscheidung gekommen ist. Man bezeichnet diese Netzwerke deshalb auch als black-boxes. Methoden der erklärbaren künstlichen Intelligenz (AI) nehmen sich diesem Problem an, indem sie Erklärungen für Entscheidungen generieren und diese für Menschen in einer interpretierbaren Form darstellen. Das Ziel dieses Artikels ist es, die erklärbaren AI Methoden Layer-wise Relevance Propagation (LRP) und Local Interpretable Model-agnostic Explanations (LIME) zu nutzen, um die Entscheidungen eines tiefen neuronalen Netzes zu erklären, dass schmerzhafte Gesichtsausdrücke von Freude und Ekel darstellenden Gesichtern unterscheidet.

 

Deep neural networks are successfully used for object and face recognition in images and videos. In order to be able to apply such networks in practice, for example in hospitals as a pain recognition tool, the current procedures are only suitable to a limited extent. The advantage of deep neural methods is that they can learn complex non-linear relationships between raw data and target classes without limiting themselves to a set of hand-crafted features provided by humans. However, the disadvantage is that due to the complexity of these networks, it is not possible to interpret the knowledge that is stored inside the network. It is a black-box learning procedure. Explainable Artificial Intelligence (AI) approaches mitigate this problem by extracting explanations for decisions and representing them in a human-interpretable form. The aim of this paper is to investigate the explainable AI methods Layer-wise Relevance Propagation (LRP) and Local Interpretable Model-agnostic Explanations (LIME). These approaches are applied to explain how a deep neural network distinguishes facial expressions of pain from facial expressions of emotions such as happiness and disgust.

: http://publica.fraunhofer.de/documents/N-558456.html