Recent Additions

  • Publication
    Explaining Face Recognition Through SHAP-Based Pixel-Level Face Image Quality Assessment
    ( 2023)
    Biagi, Clara
    ;
    Rethfeld, Louis
    ;
    ;
    Biometric face recognition models are widely used in many different real-world applications. The output of these models can be used to make decisions that may strongly impact people. However, an explanation of how and why such outputs are derived is usually not given to humans. The lack of explainability of face recognition models leads to distrust in their decisions and does not encourage their use. The performance of face recognition models is influenced by the quality of the input image. In case the quality of a face image is too low, the face recognition system will reject it to avoid compromising its performance. The quality is evaluated by Face Image Quality (FIQ) approaches, which assigned quality scores to the input images. Pixel-level face image quality (PLFIQ) increases the explainability of quality scores by explaining face image quality at the pixel level. This allows the users of face recognition systems to spot low-quality areas and allows them to make guided corrections. Previous works introduced the concept of PLFIQ and proposed evaluation procedures. This work proposes a new way of computing PLFIQ values depending on given FIQ methods using Shapley Values. They score the contribution of each pixel to the overall image quality evaluation. Therefore, Integrating Shapley Values increases the explainability of the FIQ models. Results show that using these methods leads to significantly better and more robust PLFIQ values estimates and thus provide better explainability.
  • Publication
    Erfolgsrezepte
    ( 2024)
    Deppner, Lea
    ;
    ; ;
    Ketenidis, David
    ;
    Kreuzer, Thomas
    ;
    Oberländer, Anna Maria
    ;
    Rex, Alexander
    Dieses Whitepaper wurde durch das Bayerische Staatsministerium für Wirtschaft, Landesentwicklung und Energie im Rahmen des "Fraunhofer Blockchain Center (20-3066-2-6-14)" gefördert. Wir danken an dieser Stelle für die Unterstützung.
  • Publication
    Evaluating the reliability of environmental concentration data to characterize exposure in environmental risk assessments
    ( 2024-02-02)
    Hladik, Michelle L.
    ;
    Markus, Arjen
    ;
    Helsel, Dennis
    ;
    Nowell, Lisa H.
    ;
    Polesello, Stefano
    ;
    ;
    Szabo, Drew
    ;
    Wilson, Iain
    Environmental risk assessments often rely on measured concentrations in environmental matrices to characterize exposure of the population of interest—typically, humans, aquatic biota, or other wildlife. Yet, there is limited guidance available on how to report and evaluate exposure datasets for reliability and relevance, despite their importance to regulatory decision‐making. This paper is the second of a four‐paper series detailing the outcomes of a Society of Environmental Toxicology and Chemistry Technical Workshop that has developed Criteria for Reporting and Evaluating Exposure Datasets (CREED). It presents specific criteria to systematically evaluate the reliability of environmental exposure datasets. These criteria can help risk assessors understand and characterize uncertainties when existing data are used in various types of assessments and can serve as guidance on best practice for the reporting of data for data generators (to maximize utility of their datasets). Although most reliability criteria are universal, some practices may need to be evaluated considering the purpose of the assessment. Reliability refers to the inherent quality of the dataset and evaluation criteria address the identification of analytes, study sites, environmental matrices, sampling dates, sample collection methods, analytical method performance, data handling or aggregation, treatment of censored data, and generation of summary statistics. Each criterion is evaluated as “fully met,” “partly met,” “not met or inappropriate,” “not reported,” or “not applicable” for the dataset being reviewed. The evaluation concludes with a scheme for scoring the dataset as reliable with or without restrictions, not reliable, or not assignable, and is demonstrated with three case studies representing both organic and inorganic constituents, and different study designs and assessment purposes. Reliability evaluation can be used in conjunction with relevance evaluation (assessed separately) to determine the extent to which environmental monitoring datasets are “fit for purpose,” that is, suitable for use in various types of assessments.
  • Publication
    Lebensmittelindustrie 4.0
    ( 2023) ;
    Fischer-Brandies, Leopold
    ;
    ; ;
    Oberländer, Anna Maria
    ;
    Rex, Alexander
    ;
    Stoetzer, Jens-Christian
    ;
    Teuchert, Antonie
    ;
    ;
    Volland, Maximilian
    Unsere Ambition ist es, Themen der Wirtschaftsinformatik inhaltlich wie methodisch umfassend auf höchstem Niveau abzudecken. Gemeinsam mit unseren Partnern aus Wirtschaft und Gesellschaft erarbeiten wir auf Basis unserer fachlichen und technischen Expertise innovative Lösungen für individuelle Probleme. Unsere Lösungen betrachten dabei sowohl alle Ebenen der Unternehmensarchitektur integriert als auch die Einbettung von Unternehmen in digitale Wertschöpfungsnetze. Zudem bieten wir Impulse für Digitalisierungsstrategien und transformative Veränderungsprozesse in Unternehmen. Fraunhofer-Institut für Angewandte Informationstechnik FIT Institutsteil Wirtschaftsinformatik Wittelsbacherring 10 95444 Bayreuth Danksagung Dieses White Paper wurde durch das Bayerische Staatsministerium für Wirtschaft, Landesentwicklung und Energie im Rahmen des "Fraunhofer Blockchain Center (20-3066-2-6-14)" gefördert. Wir danken an dieser Stelle für die Unterstützung. Außerdem danken wir David Ketenidis und Marike Reinelt für die Mitarbeit an dem White Paper und vor allem für die Unterstützung bei der sprachlichen Überprüfung sowie den Illustrationen.
  • Publication
    Automatische Generierung von Tabellendrillingen unter Beibehaltung originärer Metadaten
    ( 2024)
    Möller, Simon
    ;
    ;
    Die gesamte Welt ist voll von Informationen in Form von Daten. Eine Möglichkeit diese Daten zu erfassen ist, sie in Form von Tabellen zu speichern. Diese Art der Datenspeicherung ermöglicht eine strukturierte Gruppierung von Datensätzen, welche leichter zu betrachten sind und gut weiterverarbeitet werden können. Alle Tabellen besitzen einen strukturellen Aufbau von Informationen, welche in Zeilen und Spalten gegliedert sind. Sie unterscheiden sich nicht nur inhaltlich, sondern auch in ihrer Größe, dem Kontext, ihrer Beschriftung, sowie weiterer veränderbaren Faktoren wie der Anzahl an leeren, oder numerischen Feldern. Sind die Unterschiede gering, ergibt sich ein größeres Maß an Ähnlichkeit zwischen verschiedenen Tabellen. So nutzt unter anderem Google Tabellen mit ähnlichen Informationen zur Erweiterung der Suchergebnisse in ihrer Suchmaschine [3, 1]. Durch Finden eines solchen Ähnlichkeitsmaßes wird es möglich, Tabellen um Werte einer zu ihrer ähnlichen Tabelle zu erweitern (Tabellen Augmentation). Somit kann zum Beispiel eine Tabelle durch eine Wertvorhersage automatisch vervollständigt, oder gelöschte Einträge nachträglich wiederhergestellt werden. Aktuell existieren viele Verfahren zur Schätzung von Tabellenähnlichkeit, aber keine systematische Übersicht existiert. Geschweige denn eine akzeptierte "Best Practice", welches die Ähnlichkeit zwischen zwei oder mehreren Tabellen beschreibt [15]. Jedoch gibt es bereits mehrere verschiedene Ansätze wie Tabsim [6] um einen Ähnlichkeitswert zu errechnen, oder Tabbie [7] um Tabellen-Strukturen zu erkennen und Vorhersagen dazu treffen zu können. In den letzten Jahren wurde unter anderem der Einfluss von oben genannten Tabellenfeatures auf die Güte von Tabellenähnlichkeitsmaßen [12] am Fraunhofer Institut für Graphische Datenverarbeitung IGD weiter untersucht und verschiedene Modelle auf automatisch generierten Datensätzen durch Trainieren von einem Deep Learning Algorithmus auf ihre Genauigkeit evaluiert. Die Qualität der Ergebnisse dieser Evaluation hängen sehr stark von den generierten Datensätzen ab, so ist es nicht nur wichtig, dass die Datensätze korrekt sind, sondern auch, dass sie in einer ausreichenden Menge vorhanden sind. Ein pragmatischer Ansatz im maschinellen Lernen ist der, dass selbst ein schlechter Algorithmus einen sehr guten schlagen kann, wenn er genügend Daten zum Lernen bereitgestellt bekommt [4]. Dadurch gewinnt die automatische Generierung der Datensätze sehr an Relevanz, womit sich diese Arbeit genauer befasst. In der Vorgängerarbeit "Evaluation von Tabellenfeatures und ihr Einfluss auf die Güte von Tabellenähnlichkeitsmaßen" [12] wurde ein Verfahren entwickelt, um die Performance von Tabellenähnlichkeitsmodellen zu vergleichen. Dazu wurden Tabellen-Triplets (siehe Definition 3.4 über Triplets) automatisch generiert und ausgewertet, ob das zu untersuchende Modell die relativen Distanzen korrekt schätzt. Die automatische Generation von Triplets wurde durch wiederholte Anwendung verschiedener Manipulationsoperatoren realisiert. Im Zuge der Arbeit wurden bereits Operationen zur Permutation von Reihen und Spalten sowie dem Löschen von Reihen, Spalten und Zellen. Das Löschen von Zeilen oder Spalten verändert jedoch die Metadaten einer Tabelle, wodurch das Modell sich auf diese Änderung und weniger auf die weiteren unabhängigen Variablen der Tabellen beziehen kann und dadurch bestimmte Modelle besser bewertet werden als andere.

Most viewed

  • Publication
    Directing nitrogen-doped carbon support chemistry for improved aqueous phase hydrogenation catalysis
    ( 2020) ;
    Rustam, Lina
    ;
    Thomann, Ralf
    ;
    Melke, Julia
    ;
    Fischer, Anna
    ;
    White, Robin J.
    Selective hydrogenations in the aqueous phase are an important transformation in the context of developing biorefinery concepts. In this report the application and optimisation of nitrogen-doped carbon (NDC) supported Pd nanoparticles as hydrogenation catalysts is discussed in the context of directing support (e.g. N) chemistry for improved catalytic performance in the aqueous phase. As a demonstrative example, the aqueous phase hydrogenation of phenol to cyclohexanone (e.g. a platform for polyamide production) is utilised. Catalyst supports were prepared based on an initial hydrothermal synthesis to yield NDC xerogels (from biomass precursors), the chemistry of which (e.g. functionality) was directed using a secondary thermal carbonisation (Tc) step at different temperatures (i.e. 350, 550, 750, 900 and 1000 °C). After Pd introduction, it was found that size, dispersion and electronic structure of the formed nanoparticles is affected by the surface chemistry of the NDC. This consequently led to higher turn-over frequency (TOF) and stability of the prepared catalysts compared to a ""nitrogen-free"" carbon supported Pd and a commercial, carbon supported Pd (Pd/AC) catalyst. Pd/NDC 900 (featuring predominantly quaternary and pyridinic N) catalysed the complete conversion of phenol at 99% selectivity to cyclohexanone, with excellent stability over 11 recycles and no discernible catalyst sintering or leaching (in contrast to the commercial catalyst). High catalytic stability, activity and selectivity make the Pd/NDC 900 catalyst highly applicable for aqueous phase hydrogenation reactions, whilst the general principle opens scope for support tailoring for application (e.g. biorefinery hydrogenations) and the development of structure/activity relationships.
  • Publication
    Laser pulse energy conversion on sequence-specifically bound metal nanoparticles and its application for DNA manipulation
    ( 2005)
    Garwe, F.
    ;
    Czaki, A.
    ;
    Maubach, G.
    ;
    Steinbrück, A.
    ;
    Weise, A.
    ;
    König, K.
  • Publication
    Measurement of Local Recombination Activity in High Diffusion Length Semiconductors
    We present a conceptual approach for the localisation and characterisation of local sites of recombination in high diffusion length semiconductors under photovoltaic field conditions. While established imaging techniques operate in this very regime of uniform "1 sun" illumination, inevitable lateral diffusion of charge carriers veils the origin and severity of localised recombination sites. To reduce this limitation due to lateral diffusion the natural choice is using focussed charge carrier excitation and detection in combination with scanning the specimen. The resulting photoluminescence intensity maps are of high spatial resolution and may be composed of a superposition of a multitude of recombination active defects influencing each other due to the high bulk diffusion length. We demonstrate the feasibility of a self-consistent calibration of the setup quantum efficiency in such experimental condition which delivers a charge carrier density map in absolute units. A solution is presented to disentangle the superposition of local sites of recombination to isolate the actual recombination activity of every site. We demonstrate the feasibility of the approach experimentally on the high diffusion length semiconductor silicon.