Under CopyrightFresz, BenjaminBenjaminFreszBrajovic, DaniloDaniloBrajovicAichele, AndreasAndreasAicheleEdosomwan, IreneIreneEdosomwanHuber, MarcoMarcoHuberGöbels, Vincent PhilippVincent PhilippGöbelsOmri, SafaSafaOmriKutz, JanikaJanikaKutzNeuhüttler, JensJensNeuhüttler2024-10-082024-10-082024-08https://publica.fraunhofer.de/handle/publica/475638https://doi.org/10.24406/publica-369410.24406/publica-3694Mit der zunehmenden Marktreife von KI-Produkten stehen Entwicklerinnen und Entwickler sowie Unternehmen vor der Herausforderung, die Sicherheit dieser Produkte zu verifizieren und für eine eventuelle Zertifizierung nachzuweisen. Die "Black-Box"-Natur von KI erschwert diese Aufgabe erheblich, da herkömmliche Prüfprozesse für selbstlernende KI-Systeme nicht anwendbar sind. Obwohl klassische Softwaretests möglicherweise nie vollständig auf KI übertragbar sein werden, zeigt die Forschung im Bereich der erklärbaren Künstlichen Intelligenz (XAI) vielversprechende Fortschritte. XAI zielt darauf ab, die Entscheidungslogiken und Datenverknüpfungen in KI-Modellen nachvollziehbar zu machen. Dieses Whitepaper untersucht die Potenziale von XAI für die Entwicklung, Absicherung und Zertifizierung von KI-Systemen. Basierend auf einer Analyse relevanter Literatur und Experteninterviews aus verschiedenen Bereichen werden zentrale Erkenntnisse vorgestellt.deErklärbare Künstliche IntelligenzXAIKI-ProdukteSicherheitVerifizierungZertifizierungBlack-BoxPrüfprozesseSelbstlernende SystemeDatenverknüpfungenAbsicherungVerzerrungenBiasNutzerfokussierte MethodenFairnessTransparenzDDC::000 Informatik, Informationswissenschaft, allgemeine Werke::000 Informatik, Wissen, Systeme::005 Computerprogrammierung, Programme, DatenErklärbare Künstliche Intelligenzpaper