Deep Fakes: gefälschte Videos, täuschend echt

Illustration wo man einen Menschen am Computer sieht. Auf dem Bildschirm steh: "FRAUD ALERT"
pixabay.com

In der Filmindustrie ist sie schon seit langem möglich, nun ist die Fälschung bewegter Bilder dabei sich auch im Netz zu verbreiten – und sogar zu verbessern – das ist das, was man “Deep Fakes” nennt.  Falsche Informationen, verbreitet in Videos, die Personen zeigen, die in Wirklichkeit gar nicht deren Urheber sind. Sie werden von anderen Internetnutzern frei zusammengebastelt.

Eine Anwendung wird besonders gerne zu diesem Zweck benutzt: Deep Fake’s Artificial Intelligence. Diese App nutzt neuronales Lernen, um Gesichter in Videos auf täuschend echte Art und Weise zu verändern. Alles, was sie dafür braucht, sind eine Reihe von Bildern der Person, die im endgültigen Video auftauchen soll. Diese Software kann außerdem Lippenbewegungen und gesprochene Worte synchronisieren. Auf der Basis des Original-Videos entwickelt die KI (Künstliche Intelligenz) mithilfe des verfügbaren Bildmaterials ihr eigenes Video und legt dem Sprecher Worte in den Mund, die dieser eigentlich nie gesagt hat. Das menschliche Auge und sogar digitale Analyse-Tools sind manchmal nicht mehr in der Lage diese Videos als Fälschungen zu identifizieren, so echt sehen sie aus.

Deep Fakes gehen über einfache Parodie hinaus

Am liebsten fertigen Internetnutzer mit solchen Apps Unterhaltungsvideos an, in denen sie bekannte Persönlichkeiten in Szene setzen – das beliebteste “Opfer” dafür ist übrigens der Schauspieler Nicholas Cage. In der Tat wurde sein Gesicht in unzählige Filmausschnitte eingefügt, mit manchmal absurden oder amüsanten Ergebnissen.

Nichtsdestotrotz sind die Gefahren und Missbrauchsmöglichkeiten dieser Technologie mehr als offensichtlich und sollten daher unbedingt beachtet werden. Die Gefahr im Bereich der Pornographie kann man sich zum Beispiel leicht vorstellen. Gesichter von Frauen wie Michelle Obama oder Scarlett Johansson wurden beispielsweise bereits auf die Körper von Porno-Darstellerinnen montiert. Es ist also nicht unmöglich, dass enttäuschte Ex-Partner auf diese Weise Rache-Pornos anfertigen, mit dem Ziel bestimmte Personen öffentlich bloßzustellen.

Das soziale Netzwerk Twitter sowie einige Betreiber von Porno-Seiten haben bereits angekündigt, dass sie diese Art von Videos auf ihren Plattformen löschen werden und auch damit angefangen.

Die Gefahr der politischen Manipulation durch solche Videofälschungen

Neben dem Risiko der individuellen Bloßstellung gibt es natürlich auch noch eine andere Bedrohung: die Manipulation von politischen Entscheidungen. Politiker sind Personen des öffentlichen Lebens, es gibt daher mehr Fotos von ihnen als für ein gefälschtes Video überhaupt nötig sind. Man kann sie also alles sagen lassen, was man will. Das birgt eine erhebliche Gefahr für die Glaubwürdigkeit von Politikern, aber auch zum Beispiel für Wahlresultate.

Stellen Sie sich zum Beispiel vor, zwei Tage vor den Parlamentswahlen in Luxemburg würde ein Video viral gehen, in dem sich ein Spitzenkandidat über eine Bevölkerungsgruppe lustig macht. Bevor dies berichtigt werden könnte, hätten es bereits tausende Menschen gesehen und sich bei ihrer Wahlentscheidung sicherlich von den gefälschten Äußerungen beeinflussen lassen.

Das klingt fast wie Science-Fiction. Das berühmte Video mit Barack Obama stellt diese Technologie erschreckend realistisch dar. Die technischen Möglichkeiten entwickeln sich jedoch weiter, die künstliche Intelligenz, gleich einem selbstständig lernenden Algorithmus, verbessert sich mit jedem Video, dass sie kreiert. Es ist außerdem zu beachten, dass eine Technologie, die Videos fälschungssicher macht, noch nicht in Sicht ist.

Deep Fakes: BEE SECURE rät zur Vorsicht

Online-Fotos reduzieren

Um nicht zum Opfer eines Deep Fakes zu werden, ist es nützlich die Anzahl seiner online verfügbaren Profilfotos und anderen Selbstbildnisse zu reduzieren. Je weniger Quellenmaterial der Software zur Verfügung steht, desto schwerer ist es ein überzeugendes Resultat zu erreichen. Löschen Sie, wenn möglich, Ihre alten Profilbilder von sozialen Netzwerken und benutzen Sie das gleiche Bild für unterschiedliche Webseiten.

Bleiben Sie kritisch

Um Deep Fakes zu erkennen, ist es ratsam, sich erst mal mit dem Kontext des Videos zu beschäftigen – wird es von einer seriöse Informationsquelle vertrieben oder eher von einer dubiosen Webseite? Wann ist das Video aufgetaucht und was löst es bei Ihnen aus? Stehen die Aussagen und das Verhalten des Protagonisten im Gegensatz zu dem, was er üblicherweise sagt und tut? Diese Fragen zu beantworten kann hilfreich sein, um gefälschte Videos zu erkennen.

Die Jüngeren sensibilisieren

Besonders Jugendliche, die den Kontext vielleicht noch nicht so gut kennen, müssen für die Gefahren dieser Videos, die sich oft viral verbreiten, sensibilisiert werden. Ein gutes Mittel hierfür ist, sie selbst mit einer solchen App experimentieren zu lassen — wenn sie sehen, wie einfach es wirklich ist, Gesichter in Videos zu ersetzen, werden sie sich die nächsten bestimmt misstrauischer ansehen und die erhaltenen Informationen relativieren. Weiter informationen zum Recht am eigenen Bild finden Sie hier.

 

Quellen: RTS.ch, Heise.de, GCN.com, YouTube