Now showing 1 - 3 of 3
No Thumbnail Available
Publication

Vertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln

2024-01-22 , Mock, Michael , Schmidt, Sebastian , Müller, Felix Benjamin , Görge, Rebekka , Schmitz, Anna , Haedecke, Elena Gina , Voß, Angelika , Hecker, Dirk , Poretschkin, Maximilian

Die weltweit erste, umfassende Regulierung von Künstlicher Intelligenz ist die europäische KI-Verordnung (AI Act), die zum Zeitpunkt der Veröffentlichung des Whitepapers kurz vor der formellen Verabschiedung steht und eine KI-Konformitätsbewertung von Hochrisikosystemen fordert. Vor diesem Hintergrund zeigt das Whitepaper auf, wie die Vertrauenswürdigkeit einer mit Foundation-Modellen entwickelten KI-Anwendung bewertet und sichergestellt werden kann. Dafür wird die Vorgehensweise, wie sie im »KI-Prüfkatalog zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz« des Fraunhofer IAIS entwickelt worden ist, in den Kontext von Foundation-Modellen übertragen. Dabei wird besonders berücksichtigt, dass sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können und zusätzlich bei der Prüfung der Vertrauenswürdigkeit beachtet werden müssen.

No Thumbnail Available
Publication

Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz (KI-Prüfkatalog)

2021 , Poretschkin, Maximilian , Schmitz, Anna , Akila, Maram , Adilova, Linara , Becker, Daniel , Cremers, Armin B. , Hecker, Dirk , Houben, Sebastian , Mock, Michael , Rosenzweig, Julia , Sicking, Joachim , Schulz, Elena , Voß, Angelika , Wrobel, Stefan

No Thumbnail Available
Publication

Trustworthy Use of Artificial Intelligence

2019-07 , Cremers, Armin B. , Englander, Alex , Gabriel, Markus , Hecker, Dirk , Mock, Michael , Poretschkin, Maximilian , Rosenzweig, Julia , Rostalski, Frauke , Sicking, Joachim , Volmer, Julia , Voosholz, Jan , Voß, Angelika , Wrobel, Stefan

This publication forms a basis for the interdisciplinary development of a certification system for artificial intelligence. In view of the rapid development of artificial intelligence with disruptive and lasting consequences for the economy, society, and everyday life, it highlights the resulting challenges that can be tackled only through interdisciplinary dialog between IT, law, philosophy, and ethics. As a result of this interdisciplinary exchange, it also defines six AI-specific audit areas for trustworthy use of artificial intelligence. They comprise fairness, transparency, autonomy and control, data protection as well as security and reliability while addressing ethical and legal requirements. The latter are further substantiated with the aim of operationalizability.