Wie entstehen Deepfakes?

Schnellüberblick: Die wichtigsten Punkte: 

  • Deepfakes: Funktionsweise und Gefahr
    Deepfakes nutzen KI-gestützte neuronale Netzwerke, um Videos so zu manipulieren, dass sie täuschend echt wirken. Sie können für Unterhaltungszwecke oder gezielt zur Diskreditierung und Manipulation eingesetzt werden, z. B. in Wahlkämpfen oder zur Erpressung.
  • Erkennungsmerkmale und Prävention
    Hinweise auf Fälschungen sind asynchrone Lippenbewegungen, unnatürliche Kopfbewegungen oder statische Gesichtspartien. Skepsis und die Überprüfung der Quelle mit seriösen Informationen helfen, Deepfakes zu entlarven.
  • Hohes Bildmaterial erforderlich
    Die Erstellung überzeugender Deepfakes erfordert umfangreiche Bild- und Videodaten. Personen, die nur wenige private Fotos online teilen, sind weniger gefährdet, Ziel solcher Fälschungen zu werden.

Wie entstehen Deepfakes

Anzeige

Manipulierte Fotos gibt es schon lange. Doch der Einsatz von künstlicher Intelligenz (KI) macht es auch möglich, täuschend echte Fake-Videos zu produzieren.

Die gefälschten Videos können einfach nur für unterhaltsamen Spaß sorgen, aber genauso auch Personen diskreditieren.

Doch wie entstehen die Filmfälschungen? Und woran lässt sich ein Fake-Video erkennen?

Täuschend echte Fälschungen durch den Einsatz von KI

Apps, mit denen man Gesichter austauschen kann, können zu lustigen Ergebnissen führen. Aber was ist, wenn Fälschungen so gut gemacht sind, dass selbst Experten nicht mehr sagen können, ob ein Video echt ist?

Was nach Zukunftsmusik klingt, ist längst Realität: Im Internet tauchen immer wieder Videos auf, die sehr glaubhaft Personen bei Handlungen zeigen, die so nie stattgefunden haben.

Die Erklärung dafür, dass die gefälschten Aufnahmen so überzeugend sind, ergibt sich schon aus dem Namen des Phänomens: Deepfake. Der Begriff ist ein Kofferwort aus Deep Learning, einer Methode des maschinellen Lernens, und Fake für Fälschung. Medien zu manipulieren, ist keine Erfindung der Neuzeit.

Schon Anfang des 20. Jahrhunderts wurde mit retuschierten Fotos gearbeitet. Doch Technologien wie KI eröffnen ganz neue Möglichkeiten, und das auch bei bewegten Bildern.

Wie bei jedem Computerprogramm bilden Algorithmen die Basis dieser Technologien. Algorithmen sind gewissermaßen Handlungsvorschriften, die Schritt für Schritt definieren, was der Rechner machen soll.

Allerdings führt ein Programm im Normalfall nur die Vorschriften aus, die ihm vorgegeben werden. Die lernfähigen Algorithmen der KI funktionieren anders.

Sie lernen nämlich durch ein Training mit Unmengen an Videos, welche Muster typisch sind, wenn zum Beispiel ein Tier vorbeiläuft oder eine Person sich bewegt und spricht.

Deepfake-Technologie

Nervenzellen als Vorbild

Diese Form des Lernens ermöglichen künstliche neuronale Netze, die die Funktionsweise der Nervenzellen im menschlichen Gehirn nachahmen. Wenn wir lernen, erstellen unsere Hirnzellen Verknüpfungen mit ihren Nachbarzellen.

Je öfter wir so eine Verknüpfung nutzen, desto stabiler und ausgeprägter wird die Verbindung.

Der Algorithmus geht ähnlich vor. Er lernt durch Versuch und Irrtum und gewichtet im Verlauf seines Lernprozesses immer die Verknüpfungen zwischen seinen Netzknoten stärker, die eine richtige Antwort einbrachten.

Je länger das Training andauert, desto besser merkt sich das neuronale Netzwerk, mit welcher Bedeutung oder welchem Inhalt die jeweiligen Bildmuster verknüpft sind.

Auf diese Weise können Deep Learning-Programme zum Beispiel Menschen und Tiere in einem Video eigenständig erkennen.

Wird so ein Programm nun beispielsweise in einem autonomen Fahrzeug eingesetzt, kann das System unterscheiden, ob eine Person vor dem Auto über die Straße geht oder ob es sich lediglich um einen Schatten handelt, der auf die Fahrbahn fällt.

Besucher lesen auch gerade folgenden Beitrag:  5 Tipps für die Online-Schnäppchenjagd

Überlagerte Gesichter

Allerdings kann diese Technik eben auch eingesetzt werden, um Audio- und Videodateien zu manipulieren.

Eines der berühmtesten Beispiele dürfte ein Video aus dem Jahr 2018 sein, in dem der ehemalige US-Präsident Barack Obama zum einen vor Deepfakes warnt und zum anderen seinen Nachfolger Donald Trump beschimpft.

Tatsächlich hat Obama nichts davon jemals gesagt. Stattdessen wurde in dem Video seine Stimme mit einer Audio-Tonspur unterlegt und ein Algorithmus passte seine Mundbewegungen so an, dass es aussah, als würde Obama diese Worte wirklich sprechen.

Bei dieser Form der Fälschung werden meistens zwei verschiedene Videodateien verwendet und die Gesichter daraus mithilfe der neuronalen Netzwerke überlagert. Dabei werden die Datensätze aus den Videos zunächst auf kleine Datensätze reduziert.

Denn die KI kann so relevante Muster wie die Bewegungen der Mundpartien leichter erkennen.

Anschließend werden die Datensätze für die Mundpartie und das Gesicht übereinandergelegt und optimiert. Im Ergebnis kann eine täuschend echte Fälschung entstehen.

Wie entstehen Deepfakes (1)

Gewaltige Mengen an Bildmaterial notwendig

Das Obama-Video sollte vor allem vor Deepfakes warnen. Allerdings ist es kein Problem, das Video so zu schneiden, dass nur der Ausschnitt übrig bleibt, in dem er Trump beschimpft. Dadurch bekommt das Video eine ganz andere Bedeutung.

Deepfakes werden zum Beispiel verwendet, um die Gesichter von Prominenten in pornografische Filme oder andere skandalöse Szenen hineinzuschneiden.

Vor allem in den sozialen Medien werden solche Inhalte dann schnell geteilt, ohne dass die Nutzer den Wahrheitsgehalt ernsthaft überprüfen. Genau das macht Deepfakes gefährlich. Denn solche gefälschten Videos können gestreut werden, um zum Beispiel Leute zu erpressen oder einen Wahlkampf zu manipulieren.

Für Otto Normalverbraucher ist die Gefahr, Opfer eines Deepfakes zu werden, eher gering.

Denn es braucht sehr viel Bild- und Videomaterial, um eine Fälschung zu erstellen. Wer keine Massen an Bildern von sich ins Internet hochlädt, muss also kaum befürchten, dass er plötzlich in einem Fake-Video auftaucht.

Schwer zu erkennen

Oft ist es gar nicht so einfach, Deepfakes zu erkennen. Zwar gibt es durchaus Fälschungen, die ziemlich simpel gemacht sind. Dann ist deutlich zu sehen, dass der Kopf nicht zum Körper passt oder der Hintergrund nicht stimmen kann. Auch KI ist in der Lage, viele gefälschte Filme zu enttarnen.

Aufwändige und professionell gemachte Videomanipulationen können aber sehr überzeugend wirken und sogar die KI überlisten. Experten raten dann, auf Brüche zu achten.

So kann es auf eine Fälschung hinweisen, wenn der Kopf starrer ist als der Körper, die Lippenbewegungen nicht ganz synchron sind, die Mundwinkel abgeschnitten zu sein scheinen oder sich einzelne Gesichtspartien wie die Stirnfalten nicht bewegen.

Und nicht zuletzt kann der gesunde Menschenverstand weiterhelfen. Wenn sich eine Person in einem Video völlig untypisch verhält oder Äußerungen von sich gibt, die so gar nicht zu ihrem Naturell passen, ist durchaus Skepsis angesagt.

Wer überprüft, woher das Video stammt, und die Informationen mit anderen, seriösen Quellen abgleicht, kann eine Fälschung womöglich entlarven.

Mehr Ratgeber, Tipps und Anleitungen:

Thema: Wie entstehen Deepfakes?

-

Übersicht:
Fachartikel
Verzeichnis
Über uns


it datenbanken99

Autoren Profil:
FB/Twitter
Letzte Artikel von Autoren Profil: (Alle anzeigen)

Veröffentlicht von

Autoren Profil:

Gerd Tauber - Programmierer, Samuel Wilders IT- Experte und Markus Berthold Inhaber einer Medienagentur, Ferya Gülcan Inhaberin Onlinemedien-Agentur, Christian Gülcan Inhaber Artdefects Media Verlag, schreiben hier Wissenswertes zum Thema IT, Internet, Hardware, Programmierung, Social-Media, Software und IT-Jobs.

Kommentar verfassen