Options
Now showing
1 - 5 of 5
-
PublicationVertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln( 2024-01-22)
;Schmidt, Sebastian ;Müller, Felix Benjamin ;Görge, RebekkaDie weltweit erste, umfassende Regulierung von Künstlicher Intelligenz ist die europäische KI-Verordnung (AI Act), die zum Zeitpunkt der Veröffentlichung des Whitepapers kurz vor der formellen Verabschiedung steht und eine KI-Konformitätsbewertung von Hochrisikosystemen fordert. Vor diesem Hintergrund zeigt das Whitepaper auf, wie die Vertrauenswürdigkeit einer mit Foundation-Modellen entwickelten KI-Anwendung bewertet und sichergestellt werden kann. Dafür wird die Vorgehensweise, wie sie im »KI-Prüfkatalog zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz« des Fraunhofer IAIS entwickelt worden ist, in den Kontext von Foundation-Modellen übertragen. Dabei wird besonders berücksichtigt, dass sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können und zusätzlich bei der Prüfung der Vertrauenswürdigkeit beachtet werden müssen. -
PublicationLeitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz (KI-Prüfkatalog)(Fraunhofer IAIS, 2021)
;Cremers, Armin B. ;Sicking, Joachim -
PublicationDeutsche Normungsroadmap Künstliche Intelligenz(DIN, 2020)
;Adler, R. ;Marko, Angelina ;Nagel, Tobias ;Ruf, Miriam ;Schneider, Martin A. ;Tcholtchev, Nikolayet al.Die deutsche Normungsroadmap Künstliche Intelligenz (KI) verfolgt das Ziel, für die Normung Handlungsempfehlungen rund um KI zu geben, denn sie gilt in Deutschland und Europa in fast allen Branchen als eine der Schlüsseltechnologien für künftige Wettbewerbsfähigkeit. Die EU geht davon aus, dass die Wirtschaft in den kommenden Jahren mit Hilfe von KI stark wachsen wird. Umso wichtiger sind die Empfehlungen der Normungsroadmap, die die deutsche Wirtschaft und Wissenschaft im internationalen KI-Wettbewerb stärken, innovationsfreundliche Bedingungen schaffen und Vertrauen in die Technologie aufbauen sollen. -
PublicationTrustworthy Use of Artificial Intelligence( 2019-07)
;Cremers, Armin B. ;Englander, Alex ;Gabriel, Markus ;Rostalski, Frauke ;Sicking, Joachim ;Volmer, Julia ;Voosholz, JanThis publication forms a basis for the interdisciplinary development of a certification system for artificial intelligence. In view of the rapid development of artificial intelligence with disruptive and lasting consequences for the economy, society, and everyday life, it highlights the resulting challenges that can be tackled only through interdisciplinary dialog between IT, law, philosophy, and ethics. As a result of this interdisciplinary exchange, it also defines six AI-specific audit areas for trustworthy use of artificial intelligence. They comprise fairness, transparency, autonomy and control, data protection as well as security and reliability while addressing ethical and legal requirements. The latter are further substantiated with the aim of operationalizability. -
PublicationVertrauenswürdiger Einsatz von Künstlicher Intelligenz(Fraunhofer IAIS, 2019)
;Cremers, Armin B. ;Englander, Alex ;Gabriel, Markus ;Rostalski, Frauke ;Sicking, Joachim ;Voosholz, JanDie vorliegende Publikation dient als Grundlage für die interdisziplinäre Entwicklung einer Zertifizierung von Künstlicher Intelligenz. Angesichts der rasanten Entwicklung von Künstlicher Intelligenz mit disruptiven und nachhaltigen Folgen für Wirtschaft, Gesellschaft und Alltagsleben verdeutlicht sie, dass sich die hieraus ergebenden Herausforderungen nur im interdisziplinären Dialog von Informatik, Rechtswissenschaften, Philosophie und Ethik bewältigen lassen. Als Ergebnis dieses interdisziplinären Austauschs definiert sie zudem sechs KI-spezifische Handlungsfelder für den vertrauensvollen Einsatz von Künstlicher Intelligenz: Sie umfassen Fairness, Transparenz, Autonomie und Kontrolle, Datenschutz sowie Sicherheit und Verlässlichkeit und adressieren dabei ethische und rechtliche Anforderungen. Letztere werden mit dem Ziel der Operationalisierbarkeit weiter konkretisiert.