Now showing 1 - 5 of 5
  • Publication
    Safety Assurance of Machine Learning for Chassis Control Functions
    ( 2021) ; ; ; ;
    Unterreiner, Michael
    ;
    Graeber, Torben
    ;
    Becker, Philipp
    This paper describes the application of machine learning techniques and an associated assurance case for a safety-relevant chassis control system. The method applied during the assurance process is described including the sources of evidence and deviations from previous ISO 26262 based approaches. The paper highlights how the choice of machine learning approach supports the assurance case, especially regarding the inherent explainability of the algorithm and its robustness to minor input changes. In addition, the challenges that arise if applying more complex machine learning technique, for example in the domain of automated driving, are also discussed. The main contribution of the paper is the demonstration of an assurance approach for machine learning for a comparatively simple function. This allowed the authors to develop a convincing assurance case, whilst identifying pragmatic considerations in the application of machine learning for safety-relevant functions.
  • Publication
    Absicherung von Machine-Learning-Verfahren in sicherheitskritischen Systemen
    Bei der Entwicklung zukünftiger hochkomplexer Computersysteme, zum Beispiel autonomer Systeme, moderner Medizingeräte oder bei Aufgabenstellungen für Industrie 4.0, wird herkömmliche Algorithmik an ihre Grenzen stoßen und KI-basierte Systeme werden unabdingbar sein. Maschinelles Lernen (ML), insbesondere tiefe neuronale Netze (DNNs), zeigen immer wieder beeindruckende Leistungen in verschiedenen Bereichen, etwa bei Sprachassistenten, dem Brettspiel Go oder prototypischen autonomen Fahrzeugen. Diesen Anwendungen ist jedoch gemein, dass Fehler nicht zu gefährlichen oder gar fatalen Situationen führen. Erkennt ein Sprachassistent ein Wort beim Verfassen einer Notiz nicht oder stellt den Wecker eine Stunde zu früh, so ist das ärgerlich, hat aber in den seltensten Fällen schwerwiegende Komplikationen. Ebenso sind bei autonomen Testfahrzeugen noch menschliche Sicherheitsfahrer dabei, die aufmerksam dem Geschehen auf der Straße folgen und im Notfall die Kontrolle über das Vehikel übernehmen. Agiert ein System hingegen komplett autonom und übersieht eine Person auf der Fahrbahn oder erkennt einen Materialfehler in einem Flugzeugbauteil nicht, kann dies zu gravierenden Folgen führen. Die Schwierigkeit bei komplexeren ML-Verfahren ist jedoch, dass das Ausschließen von Fehlern vor der Inbetriebnahme und die zuverlässige Erkennung von Fehlern zur Laufzeit nicht trivial ist. Dies schränkt aktuell den Einsatz von ML in sicherheitskritischen Systemen deutlich ein und erfordert neue Ansätze, um zukünftig auch in diesen Bereichen von den Vorteilen, die ML bietet, profitieren zu können. Unsere Forschung fokussiert sich aktuell deshalb darauf, mehr Informationen von den DNNs selbst hinsichtlich ihrer Entscheidung zu erhalten und sie im Allgemeinen transparenter zu gestalten. Konkret reicht das von der Unsicherheitsbestimmung neuronaler Netze, über die Erkennung unbekannter oder gar schadhafter Eingaben hin zur besseren Erklärbarkeit des Verhaltens von DNNs. Diese Informationen werden anschließend genutzt, um sichere adaptive Systeme zu gestalten und das Gesamtsystem schon beim Entwurf abzusichern. Derzeitiges Anwendungsgebiet ist vor allem die Absicherung der Perzeption autonomer Fahrzeuge. Durch die Generalisierbarkeit der Methoden ist jedoch auch ein Einsatz in anderen Bereichen, etwa in der Medizin oder Industrie 4.0, denkbar. Dieser Vortrag gibt einen Einblick in Methoden, die dazu beitragen, das Vertrauen in ML-Verfahren zu erhöhen, basierend auf unserer aktiven Forschung im Bereich des zertifizierbaren Machine Learnings.
  • Publication
    Benchmarking Uncertainty Estimation Methods for Deep Learning with Safety-Related Metrics
    Deep neural networks generally perform very well on giving accurate predictions, but they often lack in recognizing when these predictions may be wrong. This absence of awareness regarding the reliability of given outputs is a big obstacle in deploying such models in safety-critical applications. There are certain approaches that try to address this problem by designing the models to give more reliable values for their uncertainty. However, even though the performance of these models are compared to each other in various ways, there is no thorough evaluation comparing them in a safety-critical context using metrics that are designed to describe trade-offs between performance and safe system behavior. In this paper we attempt to fill this gap by evaluating and comparing several state-of-the-art methods for estimating uncertainty for image classifcation with respect to safety-related requirements and metrics that are suitable to describe the models performance in safety-critical domains. We show the relationship of remaining error for predictions with high confidence and its impact on the performance for three common datasets. In particular, Deep Ensembles and Learned Confidence show high potential to significantly reduce the remaining error with only moderate performance penalties.
  • Publication
    Machine Learning in sicherheitskritischen Systemen
    Der Einsatz von Machine Learning (ML), insbesondere von Deep Learning, ermöglicht erst viele hochkomplexe Anwendungen, beispielsweise in der Medizintechnik oder bei autonomen Systemen. Derzeit gibt es beim Einsatz in solchen sicherheitskritischen Systemen jedoch noch einige Herausforderungen. Drei dieser Probleme und Möglichkeiten, wie diese in Zukunft gehandhabt werden können, sollen im Nachfolgenden am Beispiel des autonomen Fahrens vorgestellt werden.
  • Publication
    Managing Uncertainty of AI-based Perception for Autonomous Systems
    ( 2019)
    Henne, Maximilian
    ;
    ;
    With the advent of autonomous systems, machine perception is a decisive safety-critical part to make such systems become reality. However, presently used AI-based perception does not meet the required reliability for usage in real-world systems beyond prototypes, as for autonomous cars. In this work, we describe the challenge of reliable perception for autonomous systems. Furthermore, we identify methods and approaches to quantify the uncertainty of AI-based perception. Along with dynamic management of the safety, we show a path to how uncertainty information can be utilized for the perception, so that it will meet the high dependability demands of life-critical autonomous systems.