Now showing 1 - 2 of 2
  • Publication
    Guideline for Designing Trustworthy Artificial Intelligence
    (Fraunhofer IAIS, 2023-02) ; ; ; ; ;
    Cremers, Armin B.
    ;
    ;
    Houben, Sebastian
    ;
    ; ;
    Sicking, Joachim
    ;
    ; ; ;
    Loh, Silke
    ;
    Stolberg, Evelyn
    ;
    Tomala, Annette Daria
    Artificial Intelligence (AI) has made impressive progress in recent years and represents a a crucial impact on the economy and society. Prominent use cases include applications in medical diagnostics,key technology that has predictive maintenance and, in the future, autonomous driving. However, it is clear that AI and business models based on it can only reach their full potential if AI applications are developed according to high quality standards and are effectively protected against new AI risks. For instance, AI bears the risk of unfair treatment of individuals when processing personal data e.g., to support credit lending or staff recruitment decisions. Serious false predictions resulting from minor disturbances in the input data are another example - for instance, when pedestrians are not detected by an autonomous vehicle due to image noise. The emergence of these new risks is closely linked to the fact that the process for developing AI applications, particularly those based on Machine Learning (ML), strongly differs from that of conventional software. This is because the behavior of AI applications is essentially learned from large volumes of data and is not predetermined by fixed programmed rules.
  • Publication
    Vertrauenswürdiger Einsatz von Künstlicher Intelligenz
    (Fraunhofer IAIS, 2019)
    Cremers, Armin B.
    ;
    Englander, Alex
    ;
    Gabriel, Markus
    ;
    ; ; ; ;
    Rostalski, Frauke
    ;
    Sicking, Joachim
    ;
    ;
    Voosholz, Jan
    ;
    ;
    Die vorliegende Publikation dient als Grundlage für die interdisziplinäre Entwicklung einer Zertifizierung von Künstlicher Intelligenz. Angesichts der rasanten Entwicklung von Künstlicher Intelligenz mit disruptiven und nachhaltigen Folgen für Wirtschaft, Gesellschaft und Alltagsleben verdeutlicht sie, dass sich die hieraus ergebenden Herausforderungen nur im interdisziplinären Dialog von Informatik, Rechtswissenschaften, Philosophie und Ethik bewältigen lassen. Als Ergebnis dieses interdisziplinären Austauschs definiert sie zudem sechs KI-spezifische Handlungsfelder für den vertrauensvollen Einsatz von Künstlicher Intelligenz: Sie umfassen Fairness, Transparenz, Autonomie und Kontrolle, Datenschutz sowie Sicherheit und Verlässlichkeit und adressieren dabei ethische und rechtliche Anforderungen. Letztere werden mit dem Ziel der Operationalisierbarkeit weiter konkretisiert.