• English
  • Deutsch
  • Log In
    Password Login
    Research Outputs
    Fundings & Projects
    Researchers
    Institutes
    Statistics
Repository logo
Fraunhofer-Gesellschaft
  1. Home
  2. Fraunhofer-Gesellschaft
  3. Buch
  4. Deepfakes und manipulierte Realitäten - Technologiefolgenabschätzung und Handlungsempfehlungen für die Schweiz
 
  • Details
  • Full
Options
2024
Book
Title

Deepfakes und manipulierte Realitäten - Technologiefolgenabschätzung und Handlungsempfehlungen für die Schweiz

Abstract
Die Imitation von Stimmen und Gesichtern mittels neuer KI-Technologien wird zunehmend einfacher – und die Resultate sind schon heute kaum mehr von echten Stimmen und Gesichtern zu unterscheiden. Diese Technologien bieten viele kreative und innovative Nutzungspotenziale, sowohl für Privatnutzende als auch für verschiedene Wirtschaftsbereiche. Andererseits sind Deepfake-Videos und Deepfake-Audios auch Quell zahlreicher Risiken: Sie können z.B. politische Desinformation vereinfachen, Mobbing Vorschub leisten und kriminelle Aktivitäten begünstigen.
Angesichts der fortwährenden Debatten über die Chancen und Risiken von Deepfakes wird in der Studie der Umgang mit einer veränderten Realität diskutiert, in der täuschend echte Fälschungen mit Originalmedien um die Aufmerksamkeit der Zuschauer konkurrieren. Was ist technisch möglich? Welche Grenzen setzt das Recht? Was weiss und denkt die Bevölkerung über Deepfakes? Wie geht der Journalismus mit dem Phänomen um? Welche Rolle könnten Deepfakes in Politik und Wirtschaft spielen? Die Studie bietet zu diesen und weiteren Fragen fundierte Orientierung und zeigt darauf basierende Handlungsmöglichkeiten auf.

; 

A deepfake is an audio or (moving) image content synthesised or manipulated with the aid of artificial intelligence technologies, which appears to be authentic and in which a person says or does something that he or she has never said or done. Since 2017, when synthetic and manipulated media content was first
referred to as “deepfake”, the term has become firmly entrenched in political and media debate.
Several years after its introduction, we can now draw some mixed conclusions: some political deepfakes and deepfake-based fraud cases, for example nuisance or scam calls, appear to confirm certain concerns. On the other hand, avariety of useful applications have been created that are based on synthetic and manipulated media content. Neither the widely feared large-scale use of deepfakes in disinformation campaigns nor a major information apocalypse have materialised to date.
The purpose of this study is to assess the opportunities and risks associated with deepfakes for Switzerland.
Author(s)
Karaboga, Murat  orcid-logo
Fraunhofer-Institut für System- und Innovationsforschung ISI  
Frei, Nula
Université de Fribourg i. Ue
Puppis, Manuel
Université de Fribourg i. Ue
Vogler, Daniel
Universität Zürich, Forschungszentrum für Öffentlichkeit und Gesellschaft -fög-
Raemy, Patric
FernUni Schweiz
Ebbers, Frank  orcid-logo
Fraunhofer-Institut für System- und Innovationsforschung ISI  
Runge, Greta  orcid-logo
Fraunhofer-Institut für System- und Innovationsforschung ISI  
Rauchfleisch, Adrian
National Taiwan University, Graduate Institute of Journalismus
Seta, Gabriela de
University of Bergen, Department of Linguistic, Literary and Aesthetic Studies
Gurr, Gwendolin
Université de Fribourg i. Ue
Friedewald, Michael  orcid-logo
Fraunhofer-Institut für System- und Innovationsforschung ISI  
Rovelli, Sophia
Université de Fribourg i. Ue
Publisher
vdf - Hochschulverlag AG an der ETH Zürich  
Open Access
DOI
10.3218/4186-6
10.5281/zenodo.11643644
10.24406/publica-3245
File(s)
Karaboga_Deepfakes_und_manipulierte_Realitäten.pdf (5.84 MB)
Rights
CC BY 4.0: Creative Commons Attribution
Language
German
Fraunhofer-Institut für System- und Innovationsforschung ISI  
Keyword(s)
  • Desinformation

  • Identitätsmissbrauch

  • Facial Reenactment

  • Face Morphing

  • Face Swapping

  • Gesichtsgeneration

  • Full Body Puppetry

  • Deepfake-Audio

  • Cookie settings
  • Imprint
  • Privacy policy
  • Api
  • Contact
© 2024