Now showing 1 - 5 of 5
  • Publication
    Developing trustworthy AI applications with foundation models
    ( 2024-04) ;
    Schmidt, Sebastian
    ;
    Müller, Felix Benjamin
    ;
    Görge, Rebekka
    ;
    ; ; ; ; ;
    Kern, Carmen
    ;
    Loh, Silke
    The trustworthiness of AI applications has been the subject of recent research and is also addressed in the EU's recently adopted AI Regulation. The currently emerging foundation models in the field of text, speech and image processing offer completely new possibilities for developing AI applications. This whitepaper shows how the trustworthiness of an AI application developed with foundation models can be evaluated and ensured. For this purpose, the application-specific, risk-based approach for testing and ensuring the trustworthiness of AI applications, as developed in the "AI Assessment Catalog - Guideline for Trustworthy Artificial Intelligence" by Fraunhofer IAIS, is transferred to the context of foundation models. Special consideration is given to the fact that specific risks of foundation models can have an impact on the AI application and must also be taken into account when checking trustworthiness.
  • Publication
    Vertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln
    ( 2024-01-22) ;
    Schmidt, Sebastian
    ;
    Müller, Felix Benjamin
    ;
    Görge, Rebekka
    ;
    ; ; ; ;
    Die weltweit erste, umfassende Regulierung von Künstlicher Intelligenz ist die europäische KI-Verordnung (AI Act), die zum Zeitpunkt der Veröffentlichung des Whitepapers kurz vor der formellen Verabschiedung steht und eine KI-Konformitätsbewertung von Hochrisikosystemen fordert. Vor diesem Hintergrund zeigt das Whitepaper auf, wie die Vertrauenswürdigkeit einer mit Foundation-Modellen entwickelten KI-Anwendung bewertet und sichergestellt werden kann. Dafür wird die Vorgehensweise, wie sie im »KI-Prüfkatalog zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz« des Fraunhofer IAIS entwickelt worden ist, in den Kontext von Foundation-Modellen übertragen. Dabei wird besonders berücksichtigt, dass sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können und zusätzlich bei der Prüfung der Vertrauenswürdigkeit beachtet werden müssen.
  • Publication
    Big Data 2.0 - mit synthetischen Daten KI-Systeme stärken
    Bei der Anwendung von Künstlicher Intelligenz (KI) sind fehlende Daten immer noch eine Kernherausforderung und die Kosten zur Beschaffung ein kritischer Faktor für die Wirtschaftlichkeit vieler Geschäftsmodelle. Synthetische, also künstlich generierte Daten bilden einen Ausweg. Ein vielversprechender Lösungsansatz besteht darin, für die Datensynthese selbst ein KI-Modell einzusetzen.
  • Publication
    Moderne Sprachtechnologien
    (Fraunhofer IAIS, 2021-08)
    Temath, Christian
    ;
    ;
    Jovy-Klein, Florian
    ;
    Lange, Mirco
    ;
    ; ; ; ; ;
    Sprachschnittstellen sind auf dem Vormarsch und verdrängen zunehmend die Tastatur: im Smartphone, im Auto, zu Hause und in den Betrieben zur Steuerung von technischen Geräten. Immer neue Sprachtechnologien werden vorgestellt, die Geschwindigkeit der Entwicklung ist dabei atemberaubend. Selbst das Schreiben eigener Texte durch KI ist schon möglich und die Forschung arbeitet an der Erzeugung von Bildern aus Texten. Mit dieser Studie möchten wir Ihnen einen Einblick in das spannende Feld der Sprachtechnologien geben, ihre zentralen Funktionsweisen erklären und Einsatzchancen insbesondere durch konkrete Anwendungsfälle und Lösungen aufzeigen.
  • Publication
    Trustworthy Use of Artificial Intelligence
    ( 2019-07)
    Cremers, Armin B.
    ;
    Englander, Alex
    ;
    Gabriel, Markus
    ;
    ; ; ; ;
    Rostalski, Frauke
    ;
    Sicking, Joachim
    ;
    Volmer, Julia
    ;
    Voosholz, Jan
    ;
    ;
    This publication forms a basis for the interdisciplinary development of a certification system for artificial intelligence. In view of the rapid development of artificial intelligence with disruptive and lasting consequences for the economy, society, and everyday life, it highlights the resulting challenges that can be tackled only through interdisciplinary dialog between IT, law, philosophy, and ethics. As a result of this interdisciplinary exchange, it also defines six AI-specific audit areas for trustworthy use of artificial intelligence. They comprise fairness, transparency, autonomy and control, data protection as well as security and reliability while addressing ethical and legal requirements. The latter are further substantiated with the aim of operationalizability.