Fraunhofer-Gesellschaft

Publica

Hier finden Sie wissenschaftliche Publikationen aus den Fraunhofer-Instituten.

Absicherung von Machine-Learning-Verfahren in sicherheitskritischen Systemen

Vortrag gehalten auf dem Forum Künstliche Intelligenz, Stuttgart, 14.05.2020
 
: Schwaiger, Adrian

:
presentation urn:nbn:de:0011-n-5901332 (1.8 MByte PDF)
MD5 Fingerprint: c6ea6a3abd9732d8e7ebc9abcb09723f
Created on: 27.5.2020


2020, 36 Folien
Forum Künstliche Intelligenz (KI) <3, 2020, Stuttgart>
Bayerisches Staatsministerium für Wirtschaft, Landesentwicklung und Energie StMWi
BAYERN DIGITAL II; 20-3410-2-9-8; ADA-Center
ADA Lovelace Center for Analytics, Data and Applications
German
Presentation, Electronic Publication
Fraunhofer IKS ()
Safe Intelligence; Safe Artificial Intelligence; Safe AI; machine learning; maschinelles Lernen; ML; artificial intelligence; AI; Künstliche Intelligenz; KI; safety; Absicherung; KI Absicherung

Abstract
Bei der Entwicklung zukünftiger hochkomplexer Computersysteme, zum Beispiel autonomer Systeme, moderner Medizingeräte oder bei Aufgabenstellungen für Industrie 4.0, wird herkömmliche Algorithmik an ihre Grenzen stoßen und KI-basierte Systeme werden unabdingbar sein. Maschinelles Lernen (ML), insbesondere tiefe neuronale Netze (DNNs), zeigen immer wieder beeindruckende Leistungen in verschiedenen Bereichen, etwa bei Sprachassistenten, dem Brettspiel Go oder prototypischen autonomen Fahrzeugen. Diesen Anwendungen ist jedoch gemein, dass Fehler nicht zu gefährlichen oder gar fatalen Situationen führen. Erkennt ein Sprachassistent ein Wort beim Verfassen einer Notiz nicht oder stellt den Wecker eine Stunde zu früh, so ist das ärgerlich, hat aber in den seltensten Fällen schwerwiegende Komplikationen. Ebenso sind bei autonomen Testfahrzeugen noch menschliche Sicherheitsfahrer dabei, die aufmerksam dem Geschehen auf der Straße folgen und im Notfall die Kontrolle über das Vehikel übernehmen. Agiert ein System hingegen komplett autonom und übersieht eine Person auf der Fahrbahn oder erkennt einen Materialfehler in einem Flugzeugbauteil nicht, kann dies zu gravierenden Folgen führen. Die Schwierigkeit bei komplexeren ML-Verfahren ist jedoch, dass das Ausschließen von Fehlern vor der Inbetriebnahme und die zuverlässige Erkennung von Fehlern zur Laufzeit nicht trivial ist. Dies schränkt aktuell den Einsatz von ML in sicherheitskritischen Systemen deutlich ein und erfordert neue Ansätze, um zukünftig auch in diesen Bereichen von den Vorteilen, die ML bietet, profitieren zu können. Unsere Forschung fokussiert sich aktuell deshalb darauf, mehr Informationen von den DNNs selbst hinsichtlich ihrer Entscheidung zu erhalten und sie im Allgemeinen transparenter zu gestalten. Konkret reicht das von der Unsicherheitsbestimmung neuronaler Netze, über die Erkennung unbekannter oder gar schadhafter Eingaben hin zur besseren Erklärbarkeit des Verhaltens von DNNs. Diese Informationen werden anschließend genutzt, um sichere adaptive Systeme zu gestalten und das Gesamtsystem schon beim Entwurf abzusichern. Derzeitiges Anwendungsgebiet ist vor allem die Absicherung der Perzeption autonomer Fahrzeuge. Durch die Generalisierbarkeit der Methoden ist jedoch auch ein Einsatz in anderen Bereichen, etwa in der Medizin oder Industrie 4.0, denkbar. Dieser Vortrag gibt einen Einblick in Methoden, die dazu beitragen, das Vertrauen in ML-Verfahren zu erhöhen, basierend auf unserer aktiven Forschung im Bereich des zertifizierbaren Machine Learnings.

: http://publica.fraunhofer.de/documents/N-590133.html