• English
  • Deutsch
  • Log In
    Password Login
    Research Outputs
    Fundings & Projects
    Researchers
    Institutes
    Statistics
Repository logo
Fraunhofer-Gesellschaft
  1. Home
  2. Fraunhofer-Gesellschaft
  3. Konferenzschrift
  4. EU AI Act - Ein Praxisbericht zur Verbindung von regulatorischer Konformität mit industriellen KI-Standards
 
  • Details
  • Full
Options
2025
Conference Paper
Title

EU AI Act - Ein Praxisbericht zur Verbindung von regulatorischer Konformität mit industriellen KI-Standards

Other Title
EU AI Act - A Practical Report on Bridging Regulatory Compliance and Industrial AI Standards
Abstract
Die Verabschiedung des EU AI Act am 21. Mai 2024 stellt einen bedeutenden regulatorischen Wandel dar, der neue Anforderungen an Unternehmen stellt, die auf KI-Systeme angewiesen sind. Diese Vorschriften machen es für die Industrie erforderlich, ihre KI-Systeme so vorzubereiten, dass sie strenge Anforderungen erfüllen, die Sicherheit, Transparenz und Verantwortlichkeit gewährleisten. Der EU AI Act erfordert, dass KI-Systeme in eine von vier Risikoklassen eingeteilt werden. Der Schwerpunkt liegt dabei auf KI-Systemen mit hohem Risiko, für die strenge Vorschriften gelten. Der Bedarf an klaren Metriken und Standards ist groß, da viele der notwendigen Normen von Organisationen wie ISO und DIN noch in der Entwicklung sind. In diesem Dokument stellen wir Richtlinien für die Entwicklung von KI-Systemen mit hohem Risiko vor, die die Anforderungen des EU AI Act berücksichtigen. Darüber hinaus ordnen wir bestehende Normen und Metriken den Anforderungen zu, unterstützt durch Lösungsansätze und Best Practices, Methoden und Werkzeuge. Um die Praxistauglichkeit zu gewährleisten haben wir unsere Richtlinien anhand von zwei Anwendungsfällen eines Industriepartners evaluiert und geschärft.

; 

The adoption of the EU AI Act on May 21, 2024, marks a significant regulatory shift that places new demands on industries that rely on AI systems. These regulations create a need for industries to prepare their AI systems to meet stringent requirements that ensure safety, transparency, and accountability. The AI Act requires that AI applications be categorized into one of four risk classes. The focus is on high-risk AI systems, which are subject to strict regulations. The need for clear metrics and standards is great, as many of the necessary standards from organizations such as ISO and DIN are still being developed. In this paper, we present guidelines for the development of high-risk AI systems that address the requirements of the AI Act. In addition, we map existing standards and metrics to the requirements, supported by solution approaches and best practices, as well as methods and tools. To ensure practicality, we evaluated and refined our guidelines using two use cases provided by an industry partner.
Author(s)
Göbels, Vincent Philipp
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO  
Renner, Niclas
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO  
Omri, Safa
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO  
Kutz, Janika  
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO  
Neuhüttler, Jens  
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO  
Mainwork
Stuttgarter Symposium für Produktentwicklung SSP 2025  
Conference
Stuttgarter Symposium für Produktentwicklung 2025  
Link
Link
Language
German
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO  
Keyword(s)
  • EU AI Act

  • Konformitätsbewertung

  • vertrauenswürdige KI

  • KI Entwicklung

  • conformity assessment

  • responsible AI

  • AI development

  • Cookie settings
  • Imprint
  • Privacy policy
  • Api
  • Contact
© 2024