• English
  • Deutsch
  • Log In
    Password Login
    Research Outputs
    Fundings & Projects
    Researchers
    Institutes
    Statistics
Repository logo
Fraunhofer-Gesellschaft
  1. Home
  2. Fraunhofer-Gesellschaft
  3. Artikel
  4. Erklärbarkeit von KI‑Systemen unter der KI‑Verordnung - Vorgaben der KI‑VO für Hochrisiko-KI‑Systeme im Lichte aktueller Erklärverfahren aus dem Feld der Explainable AI (XAI)
 
  • Details
  • Full
Options
2025
Journal Article
Title

Erklärbarkeit von KI‑Systemen unter der KI‑Verordnung - Vorgaben der KI‑VO für Hochrisiko-KI‑Systeme im Lichte aktueller Erklärverfahren aus dem Feld der Explainable AI (XAI)

Abstract
Dieser Beitrag diskutiert die Relevanz von Methoden aus dem Feld der erklärbaren künstlichen Intelligenz („Explainable Artificial Intelligence“, XAI) aus der Perspektive des durch die Europäische KI‑Verordnung angenommenen Regelungsrahmens für künstliche Intelligenz. Die betrachteten XAI-Methoden ermöglichen bestimmte Einblicke in die generelle Entscheidungslogik eines gegebenen KI‑Modells, können allerdings ebenso für individuelle Ausgaben erklären, welchen Einfluss einzelne Bestandteile einer konkreten Eingabe auf die entsprechende Ausgabe des KI‑Modells haben. Diese Möglichkeiten sind insbesondere angesichts der Transparenzanforderungen an Hochrisiko-KI‑Systeme relevant, welche die KI‑Verordnung postuliert. In diesem Beitrag werden zunächst die Möglichkeiten einzelner XAI-Methoden anhand eines Beispiels dargestellt. Anschließend wird diskutiert, inwieweit Vorgaben der KI‑Verordnung für Hochrisiko-KI‑Systeme durch diese technischen Mittel umgesetzt werden könnten.
Author(s)
Becker, Maximilian  
Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB  
Birnstill, Pascal  
Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB  
Ebert, Andreas
Journal
Computer und Recht  
DOI
10.9785/cr-2025-411104
Language
German
Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB  
  • Cookie settings
  • Imprint
  • Privacy policy
  • Api
  • Contact
© 2024