Now showing 1 - 9 of 9
  • Publication
    Developing trustworthy AI applications with foundation models
    ( 2024-04) ;
    Schmidt, Sebastian
    ;
    Müller, Felix Benjamin
    ;
    Görge, Rebekka
    ;
    ; ; ; ; ;
    Kern, Carmen
    ;
    Loh, Silke
    The trustworthiness of AI applications has been the subject of recent research and is also addressed in the EU's recently adopted AI Regulation. The currently emerging foundation models in the field of text, speech and image processing offer completely new possibilities for developing AI applications. This whitepaper shows how the trustworthiness of an AI application developed with foundation models can be evaluated and ensured. For this purpose, the application-specific, risk-based approach for testing and ensuring the trustworthiness of AI applications, as developed in the "AI Assessment Catalog - Guideline for Trustworthy Artificial Intelligence" by Fraunhofer IAIS, is transferred to the context of foundation models. Special consideration is given to the fact that specific risks of foundation models can have an impact on the AI application and must also be taken into account when checking trustworthiness.
  • Publication
    Vertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln
    ( 2024-01-22) ;
    Schmidt, Sebastian
    ;
    Müller, Felix Benjamin
    ;
    Görge, Rebekka
    ;
    ; ; ; ;
    Die weltweit erste, umfassende Regulierung von Künstlicher Intelligenz ist die europäische KI-Verordnung (AI Act), die zum Zeitpunkt der Veröffentlichung des Whitepapers kurz vor der formellen Verabschiedung steht und eine KI-Konformitätsbewertung von Hochrisikosystemen fordert. Vor diesem Hintergrund zeigt das Whitepaper auf, wie die Vertrauenswürdigkeit einer mit Foundation-Modellen entwickelten KI-Anwendung bewertet und sichergestellt werden kann. Dafür wird die Vorgehensweise, wie sie im »KI-Prüfkatalog zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz« des Fraunhofer IAIS entwickelt worden ist, in den Kontext von Foundation-Modellen übertragen. Dabei wird besonders berücksichtigt, dass sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können und zusätzlich bei der Prüfung der Vertrauenswürdigkeit beachtet werden müssen.
  • Publication
    Guideline for Designing Trustworthy Artificial Intelligence
    (Fraunhofer IAIS, 2023-02) ; ; ; ; ;
    Cremers, Armin B.
    ;
    ;
    Houben, Sebastian
    ;
    ; ;
    Sicking, Joachim
    ;
    ; ; ;
    Loh, Silke
    ;
    Stolberg, Evelyn
    ;
    Tomala, Annette Daria
    Artificial Intelligence (AI) has made impressive progress in recent years and represents a a crucial impact on the economy and society. Prominent use cases include applications in medical diagnostics,key technology that has predictive maintenance and, in the future, autonomous driving. However, it is clear that AI and business models based on it can only reach their full potential if AI applications are developed according to high quality standards and are effectively protected against new AI risks. For instance, AI bears the risk of unfair treatment of individuals when processing personal data e.g., to support credit lending or staff recruitment decisions. Serious false predictions resulting from minor disturbances in the input data are another example - for instance, when pedestrians are not detected by an autonomous vehicle due to image noise. The emergence of these new risks is closely linked to the fact that the process for developing AI applications, particularly those based on Machine Learning (ML), strongly differs from that of conventional software. This is because the behavior of AI applications is essentially learned from large volumes of data and is not predetermined by fixed programmed rules.
  • Publication
    Deutsche Normungsroadmap Künstliche Intelligenz
    Die deutsche Normungsroadmap Künstliche Intelligenz (KI) verfolgt das Ziel, für die Normung Handlungsempfehlungen rund um KI zu geben, denn sie gilt in Deutschland und Europa in fast allen Branchen als eine der Schlüsseltechnologien für künftige Wettbewerbsfähigkeit. Die EU geht davon aus, dass die Wirtschaft in den kommenden Jahren mit Hilfe von KI stark wachsen wird. Umso wichtiger sind die Empfehlungen der Normungsroadmap, die die deutsche Wirtschaft und Wissenschaft im internationalen KI-Wettbewerb stärken, innovationsfreundliche Bedingungen schaffen und Vertrauen in die Technologie aufbauen sollen.
  • Publication
    Trustworthy Use of Artificial Intelligence
    ( 2019-07)
    Cremers, Armin B.
    ;
    Englander, Alex
    ;
    Gabriel, Markus
    ;
    ; ; ; ;
    Rostalski, Frauke
    ;
    Sicking, Joachim
    ;
    Volmer, Julia
    ;
    Voosholz, Jan
    ;
    ;
    This publication forms a basis for the interdisciplinary development of a certification system for artificial intelligence. In view of the rapid development of artificial intelligence with disruptive and lasting consequences for the economy, society, and everyday life, it highlights the resulting challenges that can be tackled only through interdisciplinary dialog between IT, law, philosophy, and ethics. As a result of this interdisciplinary exchange, it also defines six AI-specific audit areas for trustworthy use of artificial intelligence. They comprise fairness, transparency, autonomy and control, data protection as well as security and reliability while addressing ethical and legal requirements. The latter are further substantiated with the aim of operationalizability.
  • Publication
    Vertrauenswürdiger Einsatz von Künstlicher Intelligenz
    (Fraunhofer IAIS, 2019)
    Cremers, Armin B.
    ;
    Englander, Alex
    ;
    Gabriel, Markus
    ;
    ; ; ; ;
    Rostalski, Frauke
    ;
    Sicking, Joachim
    ;
    ;
    Voosholz, Jan
    ;
    ;
    Die vorliegende Publikation dient als Grundlage für die interdisziplinäre Entwicklung einer Zertifizierung von Künstlicher Intelligenz. Angesichts der rasanten Entwicklung von Künstlicher Intelligenz mit disruptiven und nachhaltigen Folgen für Wirtschaft, Gesellschaft und Alltagsleben verdeutlicht sie, dass sich die hieraus ergebenden Herausforderungen nur im interdisziplinären Dialog von Informatik, Rechtswissenschaften, Philosophie und Ethik bewältigen lassen. Als Ergebnis dieses interdisziplinären Austauschs definiert sie zudem sechs KI-spezifische Handlungsfelder für den vertrauensvollen Einsatz von Künstlicher Intelligenz: Sie umfassen Fairness, Transparenz, Autonomie und Kontrolle, Datenschutz sowie Sicherheit und Verlässlichkeit und adressieren dabei ethische und rechtliche Anforderungen. Letztere werden mit dem Ziel der Operationalisierbarkeit weiter konkretisiert.
  • Publication
    Edge Computing aus Sicht der Künstlichen Intelligenz
    Dieser Beitrag stellt die Schlüsseltechnologie der modernen KI vor: das maschinelle Lernen (ML) und speziell das Lernen mit künstlichen neuronalen Netzen. Er erklärt, wie ein solches Modell unmittelbar an den Orten der Datenentstehung gelernt werden kann ganz ohne Kommunikation von Rohdaten. Dieses Paradigma wird als verteiltes Lernen oder kurz Lernen an der Edge bezeichnet, im Gegensatz zum heute vorherrschenden Lernen in der Cloud. Künstliche Intelligenz ist in den letzten Jahren in unseren Alltag eingezogen, in Form von Sprachassistenten und Übersetzern, Objekt- und Gesichtserkennung, Produktempfehlungen und personalisierten Informationen. Die gemeinsame Technik hinter all diesen Fähigkeiten ist das maschinelle Lernen. Gemeinsamer Enabler von maschinellem Lernen und Bi g Data ist die nahezu exponentiell wachsende Verfügbarkeit an Ressourcen wie Rechenleistung und Speicherkapazität.
  • Publication
    Detecting Mobility Patterns with Stationary Bluetooth Sensors: A real-world Case Study
    A Bluetooth sensor network was built up in the city of Bonn to measure Bluetooth MAC-addresses. The results of the acquired data are separated on a macro level and mobility patterns. We have collected nearly 5 million data points from 14 distinct stationary sensors over a period of 1 month and recognized over 85.000 unique devices. We show that the data is sufficiently dense to detect commuter patterns based on a Fourier analysis. In addition, we discuss limitations found in the dataset and present lessons learned.
  • Publication
    Skalierbarkeit und Architektur von Big-Data-Anwendungen
    Big-Data-Komponenten, mit denen die Internetriesen wie Google, Facebook oder Amazon ihre Big-Data-Anwendungen bauen, werden von Open-Source-Communities angeboten und vielfach ergänzt. Die technologische Basis, Chancen von Big Data zu nutzen, ist sowohl frei verfügbar, als auch im Portfolio großer Systemanbieter umfangreich enthalten. Trotzdem stehen vor der Entwicklung einer Big-Data-Anwendung vergleichsweise hohe Hürden: Big-Data-Komponenten haben gemeinhin einen geringeren Funktionsumfang, als man es bisher zum Beispiel von einem Betriebssystem, einer klassischen relationalen Datenbank oder einem BI-System gewohnt ist. Dieser Beitrag gibt einen Einblick über die wesentliche technische Leistung und den damit verbundenen Nutzen von Big-Data-Komponenten. Anschließend wird an einem konkreten Beispiel gezeigt, wie im Konzept der Lambda-Architektur Komponenten aufeinander abgestimmt eingesetzt werden.