Interview: Was sind eigentlich DeepFakes? (2024)

Was sind eigentlich DeepFakes, Herr Prof. Krüger?

In den Medien ist derzeit wieder viel von so genannten DeepFakes zu lesen, also mit Hilfe Künstlicher Intelligenz manipulierter Inhalte. Im Interview erklärt Prof. Dr. Antonio Krüger, CEO des DFKI, was DeepFakes sind, wie man sie erkennen und ihnen begegnen kann.

Herr Prof. Krüger, was sind eigentlich DeepFakes?

Der Begriff DeepFake ist eine Wortkombination aus „Deep“, was auf Deep Learning, einer KI-Technik mit zugrunde liegenden künstlichen neuronalen Netzen hinweist und „Fake“ für Fälschung. Als DeepFakes bezeichnet man grundsätzlich mit Methoden der Künstlichen Intelligenz manipulierte Medieninhalte wie Audio, Photo, Video in einer Qualität, die nicht ohne Weiteres oder gar nicht als Fake, also als Fälschung zu erkennen sind.

Die wohl bekannteste Variante von DeepFakes ist das sogenannte Face-Swap. Das meint den Austausch des Gesichts einer Quellperson mit dem Gesicht einer Zielperson in einem Bild oder einem Video. Damit (und in Kombination mit Audio-Ansätzen) können Aussagen und Handlungen vorgetäuscht werden, die die betreffenden Personen nie gesagt oder ausgeführt haben.


Wie werden solche DeepFakes gestaltet und programmiert?

KI-Systeme zur Erzeugung von Face-Swaps perfektionieren durch den Einsatz von DeepLearning-Methoden mit künstlichen neuronalen Netzen den Fake inkrementell. Dabei liest und lernt ein sogenannter Encoder das Gesicht einer Person, indem er Bildmaterial anhand diverser biometrischer Parameter analysiert und in Merkmalsvektoren zerlegt. Diese werden dann schichtweise zu einem Modell zusammengefügt. Durch das permanente Abgleichen des vom Encoder erzeugten Modells des Gesichts mit dem Original optimiert das KI-System nach und nach das Ergebnis. Hierbei werden oft sogenannte GAN-Ansätze (Generative Adversarial Networks) eingesetzt, bei der zwei neuronale Netze sozusagen im Wettstreit das Ergebnis nach und nach optimieren. Die Trainings umfassen bei wirklich guten Fälschungen dabei 50.000 Iterationen und mehr. Der Decoder erzeugt nun das gefälschte Bild bzw. Video, indem er das Modell des Gesichts in das Zielformat einsetzt.

Im Bereich Audio sind KI-Technologien wie „Text-to-Speech“ (TTS), ein Teilbereich von „Natural Language Processing“ (NLP), schon sehr weit, Stimmen immer realistischer nachzuahmen, sodass synthetischen Stimmen menschlichen immer ähnlicher werden. Schon jetzt gibt es verschiedene verfügbare KI-Anwendungen („Voice Mimicry“, „Lyrebird“, „Voice Cloning“…), die zum Beispiel Stimmen existierender Personen täuschend echt imitieren und die jeder zu Hause ausprobieren kann.

Wie kann man DeepFakes erkennen?

Im technisch forensischen Bereich gilt grundsätzlich: Je höher aufgelöst ein gefaktes Bild oder Video ist, desto eher kann der Mensch die Fälschung anhand minimaler Artefakte und kleinster Fehler ohne Unterstützung eines Computers quasi mit eigenen Augen und Ohren erkennen. Im Bereich Social Media allerdings, in dem DeepFakes hauptsächlich verbreitet werden, handelt es sich in der Regel um Videos und Bilder mit relativ schlechter Qualität. Wenn überhaupt sind diese eher niedrigaufgelösten Medieninhalte wiederum nur durch den Einsatz von speziellen KI-Systemen als Fälschung zu entlarven, die genau darauf trainiert sind. Systeme wie etwa „Reality Defender“ (AI Foundation) oder „FaceForensics“ (TU München) sind starke Assistenzsysteme für Medienforensiker, die dann zusätzlich weitere Parameter und Metadaten wie räumliche Umgebung, Stimme, Zeitpunkt und Ort der Veröffentlichung etc. in ihre Prüfung mit einbeziehen. Ergebnisse solcher Detektionsverfahren könnten allerdings in nächsten Stufen wiederum mit in die Generation der Fakes einbezogen werden, sodass sich das Feld bereits jetzt in einem „Rüstungswettlauf“ befindet.
Unabhängig davon sollten Medien nicht passiv und leichtgläubig konsumiert werden, sondern jeder sollte Inhalte mitlaufend auf ihre kulturell-faktische Plausibilität prüfen.

Welche Gefahren sind mit DeepFakes verbunden?

Der Mensch ist ein soziales Wesen, aber nicht immer ehrlich. Und das Veröffentlichen und Verbreiten von falschen Nachrichten und unwahren Behauptungen ist sehr alt, wahrscheinlich so alt wie die Sprache selbst. Der Mensch ist vor allem auch ein audio-visuelles Wesen. Wenn wir hören, was Jemand sagt, in einer Filmsequenz sehen, was er tut, wirkt das auf uns im ersten Schritt glaubwürdig.

Heute obliegt die Distribution von Nachrichten und Medieninhalten nicht mehr nur den klassischen Medien (Print, TV, Radio), deren übergeordnete Redaktionskontrolle eine Wahrheitsvermutung in gewisser Weise legitimierte. Durch das Internet, insbesondere Social Media, und durch die rasante technische Entwicklung im Bereich der mobilen Endgeräte ist heute nicht nur jeder in der Lage, audiovisuelle Inhalte zu erstellen, sondern diese auch mit relevanter Reichweite zu verbreiten. Apps wie z.B. „Reface“, „Impressions“ oder „DeepFaceLab“ sind praktisch frei verfügbar, programmiertechnische Kompetenzen nur bedingt erforderlich, so dass theoretisch jeder DeepFakes generieren und verbreiten kann.

In der Tat können gefälschte Medieninhalte immensen Schaden anrichten, wenn sie zum Social Engineering, zur Meinungsmanipulation, zur Einflussnahme auf Politik, Wirtschaft und Gesellschaft eingesetzt werden. Zu denken ist an eine Verwendung etwa zur Wahlmanipulation oder an die Diskreditierung von Personen und Unternehmen.


Wie kann man DeepFakes im Kontext von Desinformation vorbeugen und begegnen?

Es gibt wissenschaftlich-technologischen, politischen, juristischen und kulturellen Handlungsbedarf. Technologisch wird an verschiedenen Möglichkeiten gearbeitet, DeepFakes zu verhindern, bzw. deren Enttarnung zu erleichtern. Insbesondere wird der Einsatz von digitalen Wasserzeichen, der Blockchain-Technologie oder der konsequenten Zertifizierung von Software geprüft. Die EU-Kommission arbeitet an einer Regulierung von KI-Technologie. Die Politik ist bestrebt, Content-Distributoren in die Pflicht zu nehmen, um eine Flut von DeepFakes zu verhindern. Unternehmen wie Facebook, Microsoft, Google und Amazon oder staatliche Institutionen wie etwa das amerikanische Verteidigungsministerium investieren große Summen in die Entwicklung von DeepFake Detection Tools. Kulturell geht es darum, bereits an den Schulen Medien- und Informationskompetenz zu vermitteln und generell die Bürger*innen entsprechend zu sensibilisieren, so dass z.B. Wahlentscheidungen nicht durch Fälschungen und falsche Fakten beeinflusst werden können.


Wie wirken sich DeepFakes auf das Vertrauen in Medien aus?

Die Grenze zwischen zulässiger Bearbeitung von Medieninhalten und DeepFake ist fließend. Die moderate Bearbeitung von Photos ist seit Jahren üblich und bekannt. Durch die neue Dimension der DeepFakes werden FakeNews allerdings noch gefährlicher. Es ist zu erwarten, dass die Glaubwürdigkeit von Medieninhalten leiden und das Vertrauen in Medien allgemein weiter erodieren wird. Markante Aussagen von Personen des öffentlichen Lebens, wie z.B. Politikern, stehen dann unter einem generellen Vorbehalt. Falls sie andererseits beispielsweise bei sexistischen oder rassistischen Äußerungen oder beim Lügen gefilmt wurden, könnten sie jederzeit behaupten, es handele sich um DeepFakes. Aber hier wird Künstliche Intelligenz einen wirkungsvollen Beitrag liefern können und die Forensiker bei der Erkennung von medialen Fälschungen unterstützen.

Herr Prof. Krüger, vielen Dank für das Gespräch!

Interview: Was sind eigentlich DeepFakes? (2024)

FAQs

Is it illegal to look at deepfakes? ›

Watching deepfakes is not illegal in itself, except in cases where the content involves unlawful material, such as child p*rnography. Existing legislation primarily targets the creation and distribution of deepfakes, especially when these actions involve non-consensual p*rnography.

How do deepfakes affect us? ›

Non-consensual deepfake videos can cause significant harm to individuals by exploiting and manipulating their likeness for explicit or damaging content. This can lead to severe harm, including loss of employment opportunities, public humiliation, or damage to personal relationships.

What are the malicious uses of deepfakes? ›

The impact of deepfakes on society

Beyond politics, deepfakes present a threat to personal security. The technology can be used for malicious purposes, such as blackmail, fraud, and cyberbullying. As a result, the need for vigilance and sophisticated detection methods has never been more critical.

What are the dangers of deepfake technology? ›

Fraud and Scams

Deepfakes not only spread misinformation, they have also been a frequent tool to commit monetary fraud. Deepfakes have been utilized to scam both individuals and companies out of money. This can include large quantities, up to millions of dollars.

Why are deepfakes banned? ›

Existing rules in the UK and some US states already ban the creation and/or dissemination of deepfakes. The FTC would make it illegal for AI platforms to create content that impersonates people and would allow the agency to force scammers to return the money they made from such scams.

Can we detect deepfakes? ›

Conversely, Pindrop's deepfake detection technology has a 99% success rate. Verification algorithms can also be more successful in detecting deepfake images (like passport photos or mugshots), achieving accuracy scores as high as 99.97% on standard assessments like NIST's Facial Recognition Vendor Test (FRVT).

What are some examples of deepfakes? ›

What are some examples of deepfakes? The two aforementioned incidents involving Taylor Swift and President Biden are examples of deepfakes. Another example involving celebrities include a TikTok account that posts video of a person who bears the likeness of actor Tom Cruise.

Is deepfake good or bad? ›

Not only has this technology created confusion, skepticism, and the spread of misinformation, deepfakes also pose a threat to privacy and security. With the ability to convincingly impersonate anyone, cybercriminals can orchestrate phishing scams or identity theft operations with alarming precision.

Are deepfakes a cyber crime? ›

Deepfakes are synthetic media that portray something other than what is real. This type of media is most visible in the entertainment industry, but it's becoming an effective tool for cybercrime.

How do I protect myself from deepfakes? ›

Educate yourself and others on how to spot a Deepfake. Make sure you are media literate and use good quality news sources. Have good basic protocols - "trust but verify". A skeptical attitude to voicemail and videos won't guarantee you'll never be deceived, but it can help you avoid many traps.

Can deepfakes be tracked? ›

To combat such abuses, technologies can be used to detect deepfakes or enable authentication of genuine media. Detection technologies aim to identify fake media without needing to compare it to the original, unaltered media. These technologies typically use a form of AI known as machine learning.

Can you sue someone for deepfakes? ›

Can you sue someone for making a deepfake? Yes, individuals can sue for the creation of deepfakes under several grounds, including defamation, emotional distress, and violation of intellectual property rights. Celebrities and public figures can also claim that their likeness has been misappropriated.

How do deepfakes affect people? ›

Deepfakes can be used for harmful purposes, such as creating fake content featuring individuals without their consent. A notable example of this is the actors' strike in 2023, where actors protested using AI and deepfakes to use their likeness without their consent.

What are some interesting facts about deepfakes? ›

Deepfakes are, more often than not, associated with nefarious motives, including creating misinformation and generating confusion about politically important matters. They have been used to demean, intimidate, and harass and have targeted not only celebrities, politicians, and CEOs, but ordinary citizens as well.

How many people know about deepfakes? ›

71% of Users Are Unaware of Deepfake Media

Less than one-third of the company's 2022 survey respondents say they are “aware” of deepfakes. Of course, the question that comes to mind is whether those respondents are confident they can recognize a deepfake if they see one.

Is undress AI illegal? ›

It's now illegal to generate and distribute 'intimate' deepfakes. Preventative conversations about undress AI can keep children from getting involved.

Is it bad to watch deepfake? ›

A “deepfake” is fabricated hyper-realistic digital media, including video, image, and audio content. Not only has this technology created confusion, skepticism, and the spread of misinformation, deepfakes also pose a threat to privacy and security.

Can deepfakes be used in court? ›

Important documents can be forged via LLMs and deepfake images. Such manipulations can lead to wrongful convictions or acquittals if not detected, causing irreversible devastation for those impacted by the justice system. The same methods can be used to create false video and audio testimony from witnesses and experts.

Are deepfakes identity theft? ›

Synthetic identity theft.

Scam artists will use these various forms of deepfakes to commit fraudulent financial transactions.

References

Top Articles
Latest Posts
Article information

Author: Otha Schamberger

Last Updated:

Views: 5458

Rating: 4.4 / 5 (75 voted)

Reviews: 90% of readers found this page helpful

Author information

Name: Otha Schamberger

Birthday: 1999-08-15

Address: Suite 490 606 Hammes Ferry, Carterhaven, IL 62290

Phone: +8557035444877

Job: Forward IT Agent

Hobby: Fishing, Flying, Jewelry making, Digital arts, Sand art, Parkour, tabletop games

Introduction: My name is Otha Schamberger, I am a vast, good, healthy, cheerful, energetic, gorgeous, magnificent person who loves writing and wants to share my knowledge and understanding with you.