Verblüffend echt und brandgefährlich: So einfach durchschauen Sie die KI-Tricks.
Achtung, Deepfake-FalleExperten verraten, mit welchen Tricks Sie Lügen sofort erkennen

Copyright: Marcus Brandt/dpa
Wie sind Deepfakes zu entlarven? (Symbolbild)
Lügen-Videos entlarven: Experte gibt krasse Tipps – so erkennt jeder die Fälschung. Ihre Verbreitung explodiert förmlich: In sozialen Netzwerken können Deepfakes für Lacher und Amüsement sorgen. Doch auf Erotik-Plattformen ruinieren sie den Leumund von Personen – und im politischen Kontext können sie Abstimmungen manipulieren. Es handelt sich bei Deepfakes um verblüffend realistische, durch KI erzeugte oder veränderte Bilder, Filmsequenzen und Tonaufzeichnungen. Die Politik begreift diese Entwicklung in der laufenden Diskussion immer mehr als eine ernsthafte Bedrohung.
Doch wie kann man eine solche Fälschung aufdecken? Ein Experte auf diesem Gebiet ist Nicolas Müller. Er führt am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit in Garching bei München eine Forschungsgruppe, die sich mit Deepfakes beschäftigt. Laut ihm kann eine erste Überprüfung schon mit den eigenen Sinnen gelingen.
Experte: Mit diesen Tricks entlarven Sie Fälschungen
Der Forscher gibt einen simplen Tipp für den Alltags-Check. „Bei einem Interview mit einer Person kann man checken: Das soll in Berlin aufgenommen sein an einem bestimmten Tag. Passt denn das Wetter? Man kann bei einem Video auch schauen: Kommen alle Schatten aus der richtigen Ecke?“
Dies lässt sich sogar manuell nachvollziehen, erklärt Müller weiter. „Da zieht man auf einem Standbild von den Schatten eine Linie zu den Schattengebern und schaut, ob alle diese Linien, wenn man sie nach oben weiter zeichnet, von einem gemeinsamen Punkt ausgehen. Wenn das nicht so ist, dann ist es mit einer sehr hohen Wahrscheinlichkeit ein Deepfake - zumindest, wenn es eine Szene draußen ist mit nur einer Lichtquelle.“
Es gibt noch mehr verräterische Anzeichen. Ein Hinweis ist es, wenn man eine Stimme vernimmt, der Mund des Sprechers aber zu bleibt. Müller rät: „Dann kann man schauen: Ist das nur eine gleichmäßige Verzögerung zwischen Video und Tonspur, oder hat da die KI einen Fehler gemacht?“ Weitere typische Merkmale für eine Fälschung sind unsaubere Stellen rund um den Mund, oder wenn die Hautfarbe von Hals und Torso nicht übereinstimmt. Auch surreale Fehler, wie eine Hand mit sechs Fingern, ein Objekt, das mit der Hand verschmilzt oder darüber schwebt, sind deutliche Alarmsignale.
KI gegen KI: Ein endloser Wettlauf
Zusätzlich zur menschlichen Prüfung und Logik existieren auch KI-Werkzeuge, die Deepfakes schnell erkennen können. „Am Ende kommt ein Zahlenwert zwischen 0 und 100 heraus. 0 steht für echt, 100 steht für gefälscht. Normalerweise hat ein Deepfake einen Wert um die 95“, erläutert Müller. Die KI-Modelle werden jedoch stetig weiterentwickelt. „Die Modelle konvergieren dazu, Bilder auszugeben, die fast nicht mehr unterscheidbar sind von echtem Material.“ Dennoch bleibt der Wissenschaftler optimistisch: „Das ist wie in der IT-Sicherheit: Der Angreifer verbessert sich und die Verteidigung zieht dann entsprechend nach.“
Ein anderer Experte, Jens Kramosch (42) von der Firma Leak.Red aus Erfurt, geht an das Thema Deepfake wie ein Kriminalist heran. „Das ist, wie wenn man an einen Tatort kommt. Am besten beobachtet man erst mal das Gesamtbild. Ich achte zum Beispiel auf die Haare, den Haaransatz, den Wimpernschlag und die Hautstruktur.“ Er rät auch, den Blick schweifen zu lassen: „Wichtig ist auch, nicht nur auf die Bildmitte zu schauen, sondern auf die Ränder: Passen die Linien? Passen die Schatten? Es gibt verschiedene KI-Modelle, die fokussieren sich auf das Objekt in der Mitte und vernachlässigen das Drumherum.“
Besonders herausfordernd sei die Identifizierung bei einer einzelnen Person im Zentrum des Bildes mit einem unscharfen Hintergrund. „Bei einer Frau etwa im Blumenmeer ist das deutlich schwieriger für die KI, das täuschend echt zu berechnen.“ In solchen Fällen prüft er die Metadaten: Passen Geodaten, Zeit und Ort? „Manchmal steht da 0.00 Uhr und 1970 als Erstellungsjahr.“
„Am Ende des Jahres erkennt kein Laie mehr den Unterschied“
Kramosch, den Geschädigte beauftragen können, kann Fälschungen sogar gerichtsverwertbar sichern. „Wir können mit unserer KI eine Beweiskette erstellen“, sagt er. „Wenn das Deepfake etwa bei Instagram online ist, können wir das als Beweis einfrieren und das kann dann auch nicht mehr verändert werden. Das wird wirklich forensisch gesichert.“
Er warnt eindringlich vor der rasanten Entwicklung. „Wenn wir über KI-Deepfakes reden, die vor einem Jahr online gegangen sind: Seither gibt es schon wieder 23 bessere Modelle. Ich denke, am Ende des Jahres sind wir wirklich so weit, dass der Laie auf Social Media keinen Unterschied mehr erkennen kann.“
Künftig sei ein Umdenken erforderlich: „Irgendwann wird es fast nur noch Deepfakes geben, oder nur noch künstlich generierten Content und dann ist es wichtig zu sagen: Das ist aber ein Original. Dann brauchen wir so etwas wie den blauen Haken bei Instagram, eine Art digitalen Echtheits-Stempel. Auch wenn das jetzt dramatisch klingt, aber: Da sind wir nächstes Jahr schon.“
Bleiben Deepfakes mithilfe von KI-Werkzeugen auch künftig als Fälschungen erkennbar? Müller ist zuversichtlich: „Ich sag' jetzt einfach mal ja, weil ich optimistisch bin und weil natürlich jede KI ein gewisses Muster hat. Aber die letzten Monate zeigen, dass die Entwicklung sehr, sehr schnell geht.“
Doch können solche Analysen vor einem Richter bestehen? Wie die „dpa“ meldet, äußerte Tobias Wirth vom Deutschen Forschungszentrum für Künstliche Intelligenz schon im Februar Bedenken: „KI-Erkenner sind oft Blackbox-Systeme. Sie bestimmen mit einer Wahrscheinlichkeit, ob es sich um ein Deepfake handelt, aber sie liefern nicht unbedingt eine Erklärung mit, warum“. Juristisch ist das schwierig, weil für die Beweiswürdigung eine verständliche Argumentation notwendig ist. (red)
Dieser Inhalt wurde mit Hilfe von KI erstellt.

