Fraunhofer-Gesellschaft

Publica

Hier finden Sie wissenschaftliche Publikationen aus den Fraunhofer-Instituten.

Methoden zur Absicherung von Machine Learning Verfahren in sicherheitskritischen Systemen

Machine Learning for safety-critical applications
 
: Gansloser, Jens

:
Volltext urn:nbn:de:0011-n-6381943 (8.2 MByte PDF)
MD5 Fingerprint: 77b6128afecfd0d2d7b164a2a278e5e0
Erstellt am: 22.7.2021


2021, 30 Folien
Forum Safety & Security <2021, Online>
Bayerisches Staatsministerium für Wirtschaft, Landesentwicklung und Energie StMWi
BAYERN DIGITAL II; 20-3410-2-9-8; ADA-Center
ADA Lovelace Center for Analytics, Data and Applications
Deutsch
Vortrag, Elektronische Publikation
Fraunhofer IKS ()
Safe Intelligence; artificial intelligence; AI; safety; Safe AI; machine learning; maschinelles Lernen; ML; Künstliche Intelligenz; KI; Absicherung

Abstract
Die Verfügbarkeit von hoch performanter und parallelisierbarer Hardware ermöglicht es, immer komplexere Machine Learning (ML) Verfahren in verschiedensten Anwendungsgebieten einzusetzen. ML Verfahren liefern hoch qualitative Ergebnisse und können sehr komplexe Systeme modellieren, indem große Datenmengen für das Trainieren der Modelle verwendet werden. Es bietet sich daher an, ML Verfahren auch in sicherheitskritischen Anwendungen wie autonomes Fahren und computergestützte Medizin zu verwenden. Eine große Schwierigkeit beim Einsatz von ML Verfahren in sicherheitskritischen Anwendungen ist die Verifizierung und Absicherung dieser Systeme. Diese Absicherung ist zwingend erforderlich, da Fehler des Systems oft katastrophale Folgen haben können. Hierfür ist es wichtig, eine höhere Transparenz von ML Verfahren zu erreichen. ML Verfahren sicher und interpretierbar zu machen ist jedoch nicht trivial, da hierfür eine Vielzahl an Faktoren berücksichtigt werden müssen. Fragestellungen hierbei sind: Wie lässt sich die Unsicherheit von ML Systemen quantifizieren? Sind diese Vorhersagen kalibriert? Wie erkennt ein System, wann es keine aussagekräftige Entscheidung treffen kann, da sich die Eingabe zu sehr vom gelernten Konzept unterscheidet? Wir präsentieren unsere aktuellen Forschungsergebnisse bezüglich robuster und sicherer ML Verfahren. Schwerpunkt des Vortrags ist die Absicherung von Perzeptionsmodulen in sicherheitskritischen Anwendungen, wie z.B. autonomen Fahren. Wir gehen speziell auf die Unsicherheitsbestimmung für 2D/3D Objekt Erkennung mit tiefen neuronalen Netzen ein. Zusätzlich betrachten wir Methoden zum Detektieren von Out-of-Distribution Eingaben. Abschließend geben wir einen Überblick sowie Ausblick der aktuellen Herausforderungen und zukünftige Entwicklungen im Bereich sicherer ML Verfahren.

: http://publica.fraunhofer.de/dokumente/N-638194.html