Now showing 1 - 7 of 7
No Thumbnail Available
Publication

Developing trustworthy AI applications with foundation models

2024-04 , Mock, Michael , Schmidt, Sebastian , Müller, Felix Benjamin , Görge, Rebekka , Schmitz, Anna , Haedecke, Elena Gina , Voß, Angelika , Hecker, Dirk , Poretschkin, Maximilian , Kern, Carmen , Loh, Silke

The trustworthiness of AI applications has been the subject of recent research and is also addressed in the EU's recently adopted AI Regulation. The currently emerging foundation models in the field of text, speech and image processing offer completely new possibilities for developing AI applications. This whitepaper shows how the trustworthiness of an AI application developed with foundation models can be evaluated and ensured. For this purpose, the application-specific, risk-based approach for testing and ensuring the trustworthiness of AI applications, as developed in the "AI Assessment Catalog - Guideline for Trustworthy Artificial Intelligence" by Fraunhofer IAIS, is transferred to the context of foundation models. Special consideration is given to the fact that specific risks of foundation models can have an impact on the AI application and must also be taken into account when checking trustworthiness.

No Thumbnail Available
Publication

Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz (KI-Prüfkatalog)

2021 , Poretschkin, Maximilian , Schmitz, Anna , Akila, Maram , Adilova, Linara , Becker, Daniel , Cremers, Armin B. , Hecker, Dirk , Houben, Sebastian , Mock, Michael , Rosenzweig, Julia , Sicking, Joachim , Schulz, Elena , Voß, Angelika , Wrobel, Stefan

No Thumbnail Available
Publication

Vertrauenswürdiger Einsatz von Künstlicher Intelligenz

2019 , Cremers, Armin B. , Englander, Alex , Gabriel, Markus , Hecker, Dirk , Mock, Michael , Poretschkin, Maximilian , Rosenzweig, Julia , Rostalski, Frauke , Sicking, Joachim , Volmer, Julia , Voosholz, Jan , Voß, Angelika , Wrobel, Stefan

Die vorliegende Publikation dient als Grundlage für die interdisziplinäre Entwicklung einer Zertifizierung von Künstlicher Intelligenz. Angesichts der rasanten Entwicklung von Künstlicher Intelligenz mit disruptiven und nachhaltigen Folgen für Wirtschaft, Gesellschaft und Alltagsleben verdeutlicht sie, dass sich die hieraus ergebenden Herausforderungen nur im interdisziplinären Dialog von Informatik, Rechtswissenschaften, Philosophie und Ethik bewältigen lassen. Als Ergebnis dieses interdisziplinären Austauschs definiert sie zudem sechs KI-spezifische Handlungsfelder für den vertrauensvollen Einsatz von Künstlicher Intelligenz: Sie umfassen Fairness, Transparenz, Autonomie und Kontrolle, Datenschutz sowie Sicherheit und Verlässlichkeit und adressieren dabei ethische und rechtliche Anforderungen. Letztere werden mit dem Ziel der Operationalisierbarkeit weiter konkretisiert.

No Thumbnail Available
Publication

Vertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln

2024-01-22 , Mock, Michael , Schmidt, Sebastian , Müller, Felix Benjamin , Görge, Rebekka , Schmitz, Anna , Haedecke, Elena Gina , Voß, Angelika , Hecker, Dirk , Poretschkin, Maximilian

Die weltweit erste, umfassende Regulierung von Künstlicher Intelligenz ist die europäische KI-Verordnung (AI Act), die zum Zeitpunkt der Veröffentlichung des Whitepapers kurz vor der formellen Verabschiedung steht und eine KI-Konformitätsbewertung von Hochrisikosystemen fordert. Vor diesem Hintergrund zeigt das Whitepaper auf, wie die Vertrauenswürdigkeit einer mit Foundation-Modellen entwickelten KI-Anwendung bewertet und sichergestellt werden kann. Dafür wird die Vorgehensweise, wie sie im »KI-Prüfkatalog zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz« des Fraunhofer IAIS entwickelt worden ist, in den Kontext von Foundation-Modellen übertragen. Dabei wird besonders berücksichtigt, dass sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können und zusätzlich bei der Prüfung der Vertrauenswürdigkeit beachtet werden müssen.

No Thumbnail Available
Publication

Deutsche Normungsroadmap Künstliche Intelligenz

2020 , Adler, R. , Kolomiichuk, Sergii , Hecker, Dirk , Lämmel, Philipp , Ma, Jackie , Marko, Angelina , Mock, Michael , Nagel, Tobias , Poretschkin, Maximilian , Rennoch, Axel , Röhler, Marcus , Ruf, Miriam , Schönhof, Raoul , Schneider, Martin A. , Tcholtchev, Nikolay , Ziehn, Jens , Böttinger, Konstantin , Jedlitschka, Andreas , Oala, Luis , Sperl, Philip , Wenzel, Markus , et al.

Die deutsche Normungsroadmap Künstliche Intelligenz (KI) verfolgt das Ziel, für die Normung Handlungsempfehlungen rund um KI zu geben, denn sie gilt in Deutschland und Europa in fast allen Branchen als eine der Schlüsseltechnologien für künftige Wettbewerbsfähigkeit. Die EU geht davon aus, dass die Wirtschaft in den kommenden Jahren mit Hilfe von KI stark wachsen wird. Umso wichtiger sind die Empfehlungen der Normungsroadmap, die die deutsche Wirtschaft und Wissenschaft im internationalen KI-Wettbewerb stärken, innovationsfreundliche Bedingungen schaffen und Vertrauen in die Technologie aufbauen sollen.

No Thumbnail Available
Publication

Guideline for Designing Trustworthy Artificial Intelligence

2023-02 , Poretschkin, Maximilian , Schmitz, Anna , Akila, Maram , Adilova, Linara , Becker, Daniel , Cremers, Armin B. , Hecker, Dirk , Houben, Sebastian , Mock, Michael , Rosenzweig, Julia , Sicking, Joachim , Schulz, Elena , Voß, Angelika , Wrobel, Stefan , Loh, Silke , Stolberg, Evelyn , Tomala, Annette Daria

Artificial Intelligence (AI) has made impressive progress in recent years and represents a a crucial impact on the economy and society. Prominent use cases include applications in medical diagnostics,key technology that has predictive maintenance and, in the future, autonomous driving. However, it is clear that AI and business models based on it can only reach their full potential if AI applications are developed according to high quality standards and are effectively protected against new AI risks. For instance, AI bears the risk of unfair treatment of individuals when processing personal data e.g., to support credit lending or staff recruitment decisions. Serious false predictions resulting from minor disturbances in the input data are another example - for instance, when pedestrians are not detected by an autonomous vehicle due to image noise. The emergence of these new risks is closely linked to the fact that the process for developing AI applications, particularly those based on Machine Learning (ML), strongly differs from that of conventional software. This is because the behavior of AI applications is essentially learned from large volumes of data and is not predetermined by fixed programmed rules.

No Thumbnail Available
Publication

Trustworthy Use of Artificial Intelligence

2019-07 , Cremers, Armin B. , Englander, Alex , Gabriel, Markus , Hecker, Dirk , Mock, Michael , Poretschkin, Maximilian , Rosenzweig, Julia , Rostalski, Frauke , Sicking, Joachim , Volmer, Julia , Voosholz, Jan , Voß, Angelika , Wrobel, Stefan

This publication forms a basis for the interdisciplinary development of a certification system for artificial intelligence. In view of the rapid development of artificial intelligence with disruptive and lasting consequences for the economy, society, and everyday life, it highlights the resulting challenges that can be tackled only through interdisciplinary dialog between IT, law, philosophy, and ethics. As a result of this interdisciplinary exchange, it also defines six AI-specific audit areas for trustworthy use of artificial intelligence. They comprise fairness, transparency, autonomy and control, data protection as well as security and reliability while addressing ethical and legal requirements. The latter are further substantiated with the aim of operationalizability.