Under CopyrightKern, CarmenLoh, SilkeKapusta, AchimJüssen, EvaMock, MichaelMichaelMockSchmidt, SebastianSebastianSchmidtMüller, Felix BenjaminFelix BenjaminMüllerGörge, RebekkaRebekkaGörgeSchmitz, AnnaAnnaSchmitzHaedecke, Elena GinaElena GinaHaedeckeVoß, AngelikaAngelikaVoßHecker, DirkDirkHeckerPoretschkin, MaximilianMaximilianPoretschkin2024-01-222024-01-222024-01-22https://publica.fraunhofer.de/handle/publica/459114https://doi.org/10.24406/publica-247510.24406/publica-2475Die weltweit erste, umfassende Regulierung von Künstlicher Intelligenz ist die europäische KI-Verordnung (AI Act), die zum Zeitpunkt der Veröffentlichung des Whitepapers kurz vor der formellen Verabschiedung steht und eine KI-Konformitätsbewertung von Hochrisikosystemen fordert. Vor diesem Hintergrund zeigt das Whitepaper auf, wie die Vertrauenswürdigkeit einer mit Foundation-Modellen entwickelten KI-Anwendung bewertet und sichergestellt werden kann. Dafür wird die Vorgehensweise, wie sie im »KI-Prüfkatalog zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz« des Fraunhofer IAIS entwickelt worden ist, in den Kontext von Foundation-Modellen übertragen. Dabei wird besonders berücksichtigt, dass sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können und zusätzlich bei der Prüfung der Vertrauenswürdigkeit beachtet werden müssen.deVertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickelnpaper