Options
Now showing
1 - 7 of 7
-
PublicationVom Textgenerator zum digitalen Experten( 2021-09-08)Neue Sprachprogramme wie GPT-3 geben Maschinen nicht nur ein menschenähnliches Sprachgefühl, sondern sollen sie zugleich zu Fachleuten machen können. Was steckt dahinter? Und kann das gelingen?
-
PublicationConstructing Spaces and Times for Tactical Analysis in Football( 2021)
;Andrienko, Gennady ;Andrienko, Natalia ;Anzer, Gabriel ;Bauer, Pascal ;Budziak, Guido ;Weber, HendrikA possible objective in analyzing trajectories of multiple simultaneously moving objects, such as football players during a game, is to extract and understand the general patterns of coordinated movement in different classes of situations as they develop. For achieving this objective, we propose an approach that includes a combination of query techniques for flexible selection of episodes of situation development, a method for dynamic aggregation of data from selected groups of episodes, and a data structure for representing the aggregates that enables their exploration and use in further analysis. The aggregation, which is meant to abstract general movement patterns, involves construction of new time-homomorphic reference systems owing to iterative application of aggregation operators to a sequence of data selections. As similar patterns may occur at different spatial locations, we also propose constructing new spatial reference systems for aligning and matching movements irrespective of their absolute locations. The approach was tested in application to tracking data from two Bundesliga games of the 2018/2019 season. It enabled detection of interesting and meaningful general patterns of team behaviors in three classes of situations defined by football experts. The experts found the approach and the underlying concepts worth implementing in tools for football analysts. -
PublicationInformed Machine Learning for Industry( 2019)Deep neural networks have pushed the boundaries of artificial intelligence but their training requires vast amounts of data and high performance hardware. While truly digitised companies easily cope with these prerequisites, traditional industries still often lack the kind of data or infrastructures the current generation of end-to-end machine learning depends on. The Fraunhofer Center for Machine Learning therefore develops novel solutions which are informed by expert knowledge. These typically require less training data and are more transparent in their decision-making processes.
-
PublicationGefragte Profis Data Science für Ingenieure( 2018)Im Zuge von Digitalisierung und Automatisierung werden nicht nur Prozesse und Strukturen völlig neu gestaltet. Auch die Berufsbilder verändern sich, erfordern andere Kompetenzen. Arbeits- und Tätigkeitsprofile entstehen neu. Wie schon beim Dotcom-Boom 1997 herrscht aktuell ein Kampf um Talente. Speziell Data-Science-Kompetenzen sind auf dem Arbeitsmarkt gefragter denn je. Der Fokus liegt dabei nicht nur auf den IT-, sondern auch auf kommunikativen und interdisziplinären Fähigkeiten. Der Innovationsdruck verlangt eine permanente Anpassung: IT-Wissen veraltet schneller als noch vor fünf oder zehn Jahren.
-
PublicationEdge Computing aus Sicht der Künstlichen Intelligenz( 2018)
;Sicking, JoachimDieser Beitrag stellt die Schlüsseltechnologie der modernen KI vor: das maschinelle Lernen (ML) und speziell das Lernen mit künstlichen neuronalen Netzen. Er erklärt, wie ein solches Modell unmittelbar an den Orten der Datenentstehung gelernt werden kann ganz ohne Kommunikation von Rohdaten. Dieses Paradigma wird als verteiltes Lernen oder kurz Lernen an der Edge bezeichnet, im Gegensatz zum heute vorherrschenden Lernen in der Cloud. Künstliche Intelligenz ist in den letzten Jahren in unseren Alltag eingezogen, in Form von Sprachassistenten und Übersetzern, Objekt- und Gesichtserkennung, Produktempfehlungen und personalisierten Informationen. Die gemeinsame Technik hinter all diesen Fähigkeiten ist das maschinelle Lernen. Gemeinsamer Enabler von maschinellem Lernen und Bi g Data ist die nahezu exponentiell wachsende Verfügbarkeit an Ressourcen wie Rechenleistung und Speicherkapazität. -
PublicationConstructing semantic interpretation of routine and anomalous mobility behaviors from big data( 2015)
;Andrienko, NataliaAndrienko, GennadyAnnually organized VAST Challenges provide a unique opportunity to analyze complex data with available ground truth. In 2014, one of the tasks was to interpret routine and anomalous patterns of human mobility based on big data: trajectories of cars and credit card transactions. We describe a scalable visual analytics approach to solving this problem. Repeatedly visited personal and public places were extracted from trajectories by finding spatial clusters of stop points. Temporal patterns of peoples presence in the places resulted from spatio-temporal aggregation of the data by the places and hourly intervals within the weekly cycle. Based on these patterns, we identified the meanings or purposes of the places: home, work, breakfast, lunch and dinner, etc. Meanings of some places could be refined using the credit card transaction data. By representing the place meanings as points on a 2D plane, we built an abstract semantic space and transformed the original trajectories to trajectories in the semantic space, i.e., performed semantic abstraction of the data. Spatio-temporal aggregation of the transformed trajectories into flows between the semantic places and subsequent clustering of time intervals by the similarity of the flow situations allowed us to reveal and analyze the routine movement behaviors. To detect anomalies, we (a) investigated the visits to the places with unknown meanings, and (b) looked for unusual presence times or visit durations at different semantic places. The analysis is scalable since all tools and methods can be applied to much larger data. Moreover, the semantic data abstraction can serve as a tool for protecting the personal privacy. -
PublicationSkalierbarkeit und Architektur von Big-Data-Anwendungen( 2014)Big-Data-Komponenten, mit denen die Internetriesen wie Google, Facebook oder Amazon ihre Big-Data-Anwendungen bauen, werden von Open-Source-Communities angeboten und vielfach ergänzt. Die technologische Basis, Chancen von Big Data zu nutzen, ist sowohl frei verfügbar, als auch im Portfolio großer Systemanbieter umfangreich enthalten. Trotzdem stehen vor der Entwicklung einer Big-Data-Anwendung vergleichsweise hohe Hürden: Big-Data-Komponenten haben gemeinhin einen geringeren Funktionsumfang, als man es bisher zum Beispiel von einem Betriebssystem, einer klassischen relationalen Datenbank oder einem BI-System gewohnt ist. Dieser Beitrag gibt einen Einblick über die wesentliche technische Leistung und den damit verbundenen Nutzen von Big-Data-Komponenten. Anschließend wird an einem konkreten Beispiel gezeigt, wie im Konzept der Lambda-Architektur Komponenten aufeinander abgestimmt eingesetzt werden.