Under CopyrightGansloser, JensJensGansloser2022-03-1422.7.20212021https://publica.fraunhofer.de/handle/publica/41154510.24406/publica-fhg-411545Die Verfügbarkeit von hoch performanter und parallelisierbarer Hardware ermöglicht es, immer komplexere Machine Learning (ML) Verfahren in verschiedensten Anwendungsgebieten einzusetzen. ML Verfahren liefern hoch qualitative Ergebnisse und können sehr komplexe Systeme modellieren, indem große Datenmengen für das Trainieren der Modelle verwendet werden. Es bietet sich daher an, ML Verfahren auch in sicherheitskritischen Anwendungen wie autonomes Fahren und computergestützte Medizin zu verwenden. Eine große Schwierigkeit beim Einsatz von ML Verfahren in sicherheitskritischen Anwendungen ist die Verifizierung und Absicherung dieser Systeme. Diese Absicherung ist zwingend erforderlich, da Fehler des Systems oft katastrophale Folgen haben können. Hierfür ist es wichtig, eine höhere Transparenz von ML Verfahren zu erreichen. ML Verfahren sicher und interpretierbar zu machen ist jedoch nicht trivial, da hierfür eine Vielzahl an Faktoren berücksichtigt werden müssen. Fragestellungen hierbei sind: Wie lässt sich die Unsicherheit von ML Systemen quantifizieren? Sind diese Vorhersagen kalibriert? Wie erkennt ein System, wann es keine aussagekräftige Entscheidung treffen kann, da sich die Eingabe zu sehr vom gelernten Konzept unterscheidet? Wir präsentieren unsere aktuellen Forschungsergebnisse bezüglich robuster und sicherer ML Verfahren. Schwerpunkt des Vortrags ist die Absicherung von Perzeptionsmodulen in sicherheitskritischen Anwendungen, wie z.B. autonomen Fahren. Wir gehen speziell auf die Unsicherheitsbestimmung für 2D/3D Objekt Erkennung mit tiefen neuronalen Netzen ein. Zusätzlich betrachten wir Methoden zum Detektieren von Out-of-Distribution Eingaben. Abschließend geben wir einen Überblick sowie Ausblick der aktuellen Herausforderungen und zukünftige Entwicklungen im Bereich sicherer ML Verfahren.deSafe Intelligenceartificial intelligenceAIsafetySafe AImachine learningmaschinelles LernenMLKünstliche IntelligenzKIAbsicherungMethoden zur Absicherung von Machine Learning Verfahren in sicherheitskritischen SystemenMachine Learning for safety-critical applicationspresentation