Deutschland, Internet

Deepfakes aufdecken: So arbeiten IT-Forensiker

29.03.2026 - 07:00:04 | dpa.de

Ein Interview bei Sonnenschein – aber der Schatten fällt falsch? Wie Forensiker Deepfakes mit simplen Tricks und Hightech-Tools entlarven - und warum letzteres vor Gerichte zum Problem werden kann.

Wie sind Deepfakes zu entlarven? (Symbolbild) - Foto: Marcus Brandt/dpa
Wie sind Deepfakes zu entlarven? (Symbolbild) - Foto: Marcus Brandt/dpa

Ihre Zahl nimmt rasant zu: Auf Social Media sorgen Deepfakes im besten Fall für Spaß und Unterhaltung. Auf Pornoseiten können sie den Ruf von Menschen zerstören - und auf politischen Seiten Wahlen beeinflussen. Deepfakes sind täuschend echte, KI-generierte oder manipulierte Bilder, Videos und Audioaufnahmen. In der aktuellen Debatte werden sie auf der politischen Agenda zunehmend als Problem erkannt. 

Aber wie enttarnt man ein Deepfake? Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit in Garching bei München leitet dort eine Forschungsgruppe zu Deepfakes. Eine erste Analyse kann bereits mit den eigenen Augen und Ohren erfolgen, sagt er. 

«Bei einem Interview mit einer Person kann man checken: Das soll in Berlin aufgenommen sein an einem bestimmten Tag. Passt denn das Wetter? Man kann bei einem Video auch schauen: Kommen alle Schatten aus der richtigen Ecke?» 

Das könne man händisch machen: «Da zieht man auf einem Standbild von den Schatten eine Linie zu den Schattengebern und schaut, ob alle diese Linien, wenn man sie nach oben weiter zeichnet, von einem gemeinsamen Punkt ausgehen. Wenn das nicht so ist, dann ist es mit einer sehr hohen Wahrscheinlichkeit ein Deepfake - zumindest, wenn es eine Szene draußen ist mit nur einer Lichtquelle.»

Eine Reihe von Indizien

Ein weiteres Indiz sind Momente, wo zwar Stimme zu hören, aber der Mund der sprechenden Person geschlossen ist: «Dann kann man schauen: Ist das nur eine gleichmäßige Verzögerung zwischen Video und Tonspur, oder hat da die KI einen Fehler gemacht?» 

Es gebe weitere klassische Indizien für einen Deepfake: Artefakte um den Mundbereich, oder Hals und Oberkörper passen von den Hauttönen her nicht zusammen, eine Hand hat sechs Finger, ein Gegenstand verschmilzt mit der Hand, oder schwebt über ihr. 

Ein weiterer Hinweis seien die Metadaten - auch wenn diese fehlen. «Wenn sie mit aktuellen KI-Modellen wie Gemini oder ChatGPT Deepfakes erzeugen, dann steht in deren Metadaten drin, dass das KI-generiert ist. Aber sie können die Metadaten auch wegwerfen.» 

Mit KI gegen KI

Neben dem kritischen Blick und der eigenen Logik gibt es auch KI-Tools, um Deepfakes rasch zu entlarven: «Am Ende kommt ein Zahlenwert zwischen 0 und 100 heraus. 0 steht für echt, 100 steht für gefälscht. Normalerweise hat ein Deepfake einen Wert um die 95», sagt Müller.

Allerdings werden die KI-Modelle kontinuierlich verbessert. «Die Modelle konvergieren dazu, Bilder auszugeben, die fast nicht mehr unterscheidbar sind von echtem Material.» Trotzdem sieht der Forscher nicht schwarz für die Wirklichkeit: «Das ist wie in der IT-Sicherheit: Der Angreifer verbessert sich und die Verteidigung zieht dann entsprechend nach.»

Jens Kramosch (42) vom Unternehmen Leak.Red in Erfurt nähert sich dem Deepfake wie ein Ermittler: «Das ist, wie wenn man an einen Tatort kommt. Am besten beobachtet man erst mal das Gesamtbild. Ich achte zum Beispiel auf die Haare, den Haaransatz, den Wimpernschlag und die Hautstruktur.» Oft sei die Haut bei Deepfakes zu glatt. 

«Wichtig ist auch, nicht nur auf die Bildmitte zu schauen, sondern auf die Ränder: Passen die Linien? Passen die Schatten? Es gibt verschiedene KI-Modelle, die fokussieren sich auf das Objekt in der Mitte und vernachlässigen das Drumherum.» 

Am schwierigsten sei ein Deepfake zu erkennen mit nur einer Person in der Bildmitte und diffusem Hintergrund. «Bei einer Frau etwa im Blumenmeer ist das deutlich schwieriger für die KI, das täuschend echt zu berechnen.» Dann kommen bei ihm die Metadaten dran: Stimmt die Geolocation? Uhrzeit und Ort? «Manchmal steht da 0.00 Uhr und 1970 als Erstellungsjahr.»

KI-Forensik-Tools im Einsatz

«Wir können mit unserer KI eine Beweiskette erstellen», sagt Kramosch, den Geschädigte beauftragen können. «Wenn das Deepfake etwa bei Instagram online ist, können wir das als Beweis einfrieren und das kann dann auch nicht mehr verändert werden. Das wird wirklich forensisch gesichert.»

Auch Kramosch sieht: Die KI wird immer besser, übertrifft sich ständig selbst. «Wenn wir über KI-Deepfakes reden, die vor einem Jahr online gegangen sind: Seither gibt es schon wieder 23 bessere Modelle. Ich denke, am Ende des Jahres sind wir wirklich so weit, dass der Laie auf Social Media keinen Unterschied mehr erkennen kann.» 

In der Zukunft werde man umdenken müssen: «Irgendwann wird es fast nur noch Deepfakes geben, oder nur noch künstlich generierten Content und dann ist es wichtig zu sagen: Das ist aber ein Original. Dann brauchen wir so etwas wie den blauen Haken bei Instagram, eine Art digitalen Echtheits-Stempel. Auch wenn das jetzt dramatisch klingt, aber: Da sind wir nächstes Jahr schon.»

Aber werden Deepfakes mit Hilfe von KI-Tools als Fakes identifizierbar bleiben? «Ich sag' jetzt einfach mal ja, weil ich optimistisch bin und weil natürlich jede KI ein gewisses Muster hat. Aber die letzten Monate zeigen, dass die Entwicklung sehr, sehr schnell geht.»

Überzeugen KI-Tools die Richter? 

«KI-Erkenner sind oft Blackbox-Systeme. Sie bestimmen mit einer Wahrscheinlichkeit, ob es sich um ein Deepfake handelt, aber sie liefern nicht unbedingt eine Erklärung mit, warum», warnte bereits im Februar Tobias Wirth vom Deutschen Forschungszentrum für Künstliche Intelligenz. 

Die KI könne Systeme, Muster und Indikatoren erkennen, die für das menschliche Auge nicht oder nur schwer wahrnehmbar sind. Das betreffe etwa feine Unstimmigkeiten auf Pixelebene. Vor Gericht sei das aber problematisch, da im Sinne der Beweiswürdigung nachvollziehbare Aussagen benötigt werden.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
unterhaltung | 69018881 |

Weitere Meldungen

Social-Media-Verbot für Kinder vor rechtlichen Hürden. Aber ließe sich das national durchsetzen? Ein Gutachten des Wissenschaftlichen Diensts hat die Frage geprüft. Die Forderung nach wirksamen Altersbeschränkungen wird auch in Deutschland lauter. (Unterhaltung, 29.03.2026 - 08:00) weiterlesen...

Prien: Empfehlungen der Social-Media-Kommission am 24. Juni. Wichtige Expertenempfehlungen sollen bald vorliegen. Seit der Einführung von Social-Media-Sperren für Kinder in Australien wird auch in Deutschland immer intensiver über das Thema diskutiert. (Unterhaltung, 26.03.2026 - 15:04) weiterlesen...

Abo statt Kauf: Online-Gaming-Dienste werden immer beliebter. Beim Umsatz zeigt sich nicht nur dank neuer Konsolen ein klarer Trend. Millionen Menschen geben hierzulande Geld für Games aus – deutsche Firmen spielen allerdings nur eine Nebenrolle. (Wissenschaft, 26.03.2026 - 14:27) weiterlesen...

Merz und Grüne zoffen sich über Gewalt gegen Frauen. Es geht um das Thema Gewalt gegen Frauen im Internet. In der Regierungsbefragung des Bundestags gerät der Kanzler mit zwei Grünen-Abgeordneten aneinander. (Politik, 25.03.2026 - 16:50) weiterlesen...

Neue KI-Programme bei Kindern im Kommen - mit Risiken. Immer beliebter werden auch Anwendungen, mit denen man sich per Texteingabe quasi unterhalten kann. Experten dringen auf Schutzregeln. Viele Jungen und Mädchen hängen lange am Smartphone. (Unterhaltung, 24.03.2026 - 13:44) weiterlesen...

E-Mail-Konten bleiben für Hacker das leichteste Ziel 123456 als Passwort? Viele schützen ihr E-Mail-Konto schlechter als ihr Bankkonto – und riskieren damit den Totalverlust ihrer digitalen Identität. (Wissenschaft, 24.03.2026 - 11:30) weiterlesen...