Fraunhofer-Gesellschaft

Publica

Hier finden Sie wissenschaftliche Publikationen aus den Fraunhofer-Instituten.

Künstliche Intelligenz in sicherheitskritischen Anwendungen

Vortrag gehalten im Rahmen des Bitkom AI Research Network, Virtuelles Event, 29.05.2020
 
: Trapp, Mario

:
presentation urn:nbn:de:0011-n-5967557 (7.9 MByte PDF)
MD5 Fingerprint: 36c5456fb777e12703976a45b25bdace
Created on: 21.7.2020

Video ()

2020, 53 Folien
Bitkom AI Research Network <2020, Online>
German, English
Presentation, Electronic Publication
Fraunhofer IKS ()
Künstliche Intelligenz; KI; Absicherung; zuverlässige künstliche Intelligenz; safety; Safe Intelligence; autonomes Fahren; Industrie 4.0; Internet of Things; IoT; Kognitive Systeme; machine learning; Autonomes System; Safe AI; artificial intelligence; AI; Safe Artificial Intelligence; autonomous driving; industry 4.0; cognitive systems; Autonomous Systems

Abstract
Künstliche Intelligenz verspricht nie dagewesene Möglichkeiten. Sie stößt allerdings dort an ihre Grenzen, wo sie auf hohe Sicherheitsanforderungen im Sinne von Safety trifft. Das heißt: Im schlimmsten Fall kann ein Fehler der KI Menschenleben kosten. Dies stellt sowohl die Forschung als auch die Industrie vor große Herausforderungen, wie das Beispiel autonomes Fahren zeigt. Zwar gibt es sehr viele Prototypen, die das enorme Potenzial der KI aufzeigen. Aber selbst große Tech-Unternehmen schieben die Markteinführung immer weiter nach hinten – aufgrund fehlender Möglichkeiten eines belastbaren Sicherheitsnachweises. Auch die industrielle Fertigung ist auf eine verlässliche KI angewiesen. Wenn aufgrund von Fehlentscheidungen der KI Produktionsanlagen stillstehen oder fehlerhafte Produkte ausgeliefert werden, drohen enorme finanzielle Verluste. Künstliche Intelligenz für praktische Anwendungen absichern – das steht im Mittelpunkt des Vortrags. Der Referent erklärt, warum bestehende Verfahren oder auch häufig diskutierte Ansätze zur Absicherung autonomer Autos nicht ausreichen. Zur Sprache kommen Konzepte, wie sichere und zuverlässige KI-basierte Systeme entwickelt werden können: durch Verbesserung der KI-Verfahren selbst, aber auch durch Verfahren und Architekturen, die sicherstellen, dass das System trotz Fehler der KI sicher und zuverlässig funktioniert. Zuletzt zeigt ein Ausblick, wie Künstliche Intelligenz trotz dieser Herausforderungen auch heute schon in sicherheitskritischen Anwendungen zum Einsatz kommt.

: http://publica.fraunhofer.de/documents/N-596755.html