Deepfakes: Wenn plötzlich Vitali Klitschko anruft 

01.07.2022 | Stellen Sie sich vor, Sie wären Bürgermeister von Berlin und Vitali Klitschko, seines Zeichens amtierender Bürgermeister von Kiew, bittet um einen Video-Call. Was würden Sie tun? Drangehen, oder? Das dachte sich auch Franziska Giffey. Doch das Gespräch nahm eine unerwartete Wendung.


Am 24. Juni traf sich die regierende Berliner Bürgermeisterin online mit Vitali Klitschko – das dachte sie zumindest. Im Gespräch stellte sich recht schnell heraus, dass die Person zwar aussah wie Kiews Bürgermeister, es jedoch nicht sein konnte. Daraufhin brach die Politikerin die Unterhaltung ab. Auch die Bürgermeister von Madrid und Wien fielen auf den Betrüger herein, doch wie konnte das passieren? Handelte es sich um einen Deepfake? 

Was genau sind eigentlich Deepfakes und wie gefährlich kann diese Betrugsmasche werden?

Was sind Deepfakes? 

Der Begriff ist eine Kombination aus den Wörtern „Deep Learning“, dem maschinellen Lernen, und „Fake“, was Fälschung bedeutet. Bei Deepfakes werden Menschen so täuschend echt simuliert, dass man dies weder im Video noch an der Stimme erkennen kann. 

Als Grundlage wird z.B. ein Sprecher aufgenommen. Dank Künstlicher Intelligenz wird sein Gesicht und seine Stimme neu berechnet und einem Ideal angeglichen. Dieses Ideal ist meistens eine prominente Person wie Donald Trump, Michael Caine, Mark Zuckerberg oder Barack Obama, von der ausreichend Video- und Tonmaterial existiert. Mit diesem Material wird die Künstliche Intelligenz „gefüttert“, sodass diese lernen kann, wie sich die Person bewegt, lächelt, redet und spricht. Dank dieser Informationen wird der Sprecher vor der Kamera in das Ideal verwandelt. 

Eines der prominentesten und unterhaltsamsten Beispiele für Deepfakes findet sich auf TikTok, wo der Belgier Chris Umé regelmäßig Videos postet, in denen man vermeintlich Tom Cruise in den unterschiedlichsten Situationen erlebt – beim Golfspielen, auf dem roten Teppich oder gemeinsam mit Paris Hilton. Nur, dass es sich nicht wirklich um Tom Cruise handelt, sondern um täuschend echte Deepfakes. 

Deepfakes sind nicht neu, sondern werden schon länger von der Filmindustrie eingesetzt, um z.B. bereits verstorbene oder jüngere Versionen der Schauspieler nachträglich einzufügen. So wurde Oliver Reed, der während des Films Gladiator 1999 an einem Herzinfarkt starb, mithilfe von Computeranimationen nachgebaut. Aber auch in Terminator 6 Dark Fate mussten die Charaktere von Arnold Schwarzenegger und dem jungen Edward Furlong auf das Aussehen von 1991 zurückgebracht werden. 

Viele dieser „Fakes“ sehen so täuschend echt aus, dass Laien die künstlichen Doppelgänger nicht mehr von den Originalen unterscheiden können. Mittlerweile sind Deepfakes auch in Echtzeit für Videostreams möglich, wie das aktuelle Beispiel mit dem falschen Vitali Klitschko zeigen. Damit eröffnet sich eine neue Dimension der Bedrohung, die mit dieser Technologie einhergeht.

Deepfakes als Kriegswaffe

Im aktuellen Ukraine-Krieg werden Deepfakes eingesetzt, um die Kampfmoral der Truppen zu brechen. So erschien am 17. März 2022 ein scheinbarer Aufruf von Präsident Selensky, die Waffen niederzulegen und sich den Russen zu ergeben. Ebenso existiert ein Deepfake-Video von Präsident Putin, in dem er den Sieg für Russland erklärt. 

Viele dieser Videos sind so schlecht gemacht, dass sie sofort als Manipulation erkennbar sind. Doch der Aufwand zur Erstellung von Deepfakes sinkt. Waren anfangs noch Programmierkenntnisse und ein gewisses technisches Wissen nötig, übernehmen mittlerweile Programme und Onlinedienste die Erzeugung der Deepfakes. Besondere Vorkenntnisse braucht es hierfür nicht.

IT-Sicherheit neu denken 

Für die IT-Sicherheit sind Deepfake-Videos eine wachsende Herausforderung. Vor allem in Kombination mit Social Engineering und „Spoofing“ (Täter gibt sich als vertrauenswürdige Person aus) ergeben sich für die Betrüger ungeahnte Möglichkeiten. So fiel 2019 der CEO einer britischen Tochtergesellschaft auf die manipulierte Stimme seines Firmenchefs herein und überwies 220.000 Euro: 

„Bei uns heißt dieser Schadensfall ‚Der falsche Johannes‘: Der falsche Chef hat die richtige Stimme“, sagt Rüdiger Kirsch, Betrugsexperte bei Euler Hermes. „Konkret gab der CEO bei diesem Fall der dem Chef des britischen Tochterunternehmens nicht nur per E-Mails, sondern vorab auch telefonisch Zahlungsanweisungen. Dieser hat sich zwar etwas gewundert, da er jedoch die Stimme eindeutig erkannte, hat er den Auftrag trotzdem durchgeführt. Er hat 220.000 Euro (EUR) auf ein Konto in Ungarn überwiesen. Das gesamte Geld war weg.“ (Pressemitteilung Allianz Trade

2020 gelang es Betrügern mittels Deep Voice Technologie bzw. Voice Cloning von einer Bank in Hongkong sagenhafte 35 Millionen Dollar zu stehlen. Ein Bankmanager glaubte am Telefon der scheinbaren Stimme eines Kunden, der ihm den Auftrag gab, Geld zu überweisen.

Wie lassen sich Deepfakes erkennen? 

Die Technologien im Deepfake-Bereich werden immer ausgeklügelter und realistischer. Schlecht gemachte Manipulationen erkennt man leicht an unscharfen oder unförmigen Bildelementen. Auch die Bewegung im Video ist eher ruckelig und wirkt unnatürlich und steif. Manchmal bewegt sich auch nur ein Bereich der Person, z.B. der Mund und der Kopf und der restliche Körper scheinen wie eingefroren. Wichtig ist hierbei auch immer, auf das Gesagte zu achten: Redet die Person wirklich so? Würde sie diese Worte wählen? 

Im Fall von Franziska Giffey war es auch nicht das „Drumherum“, das die Politikerin stutzig machte: Bild, Ton und Mimik lieferten keinerlei Hinweise darauf, dass es sich um eine Fälschung handeln könnte. Vielmehr manövrierte sich der vermeintliche Klitschko durch seltsame Fragen ins Aus – der Schwindel flog auf und das Gespräch wurde nach knapp 30 Minuten abgebrochen. Wie die Senatskanzlei Berlin auf Twitter mitteilte, gab es „keine Anhaltspunkte dafür, dass die Videokonferenz nicht mit einer echten Person geführt“ wurde. Zur Untersuchung des Vorfalls wurde der Staatsschutz eingeschaltet. 

Obwohl mittlerweile Zweifel aufgekommen sind, ob es sich in diesem Fall wirklich um einen Deepfake handelte, so hat er doch zumindest dafür gesorgt, die Gefahren dieser Technologie stärker ins Bewusstsein der Öffentlichkeit zu rücken.

Wie kann man Deepfakes verhindern? 

Grundsätzlich gilt es für Unternehmen, die Compliance anzupassen und feste Regeln aufzustellen, wie in solchen Fällen gehandelt werden soll. 

Während man bei der IT-Sicherheit von Zero-Trust-Netzwerken spricht und diese favorisiert, bleibt der Mensch noch häufig außen vor. Dabei ist es unerlässlich, die Mitarbeitenden ausreichend zu schulen und für das Thema zu sensibilisieren. So können etwa im Zweifelsfall erneute Rückfragen oder das Konsultieren eines Kollegen dabei helfen, eine Manipulation aufzudecken. Denkbar sind auch „Sicherheitsfragen“ wie z.B.: „Worüber haben wir heute Morgen im Teammeeting gesprochen?“, oder „Welches Bild hängt in Ihrem Wohnzimmer?“ 

Die Bandbreite der möglichen Angriffsszenarien auf Unternehmen ist enorm und mit fortschreitender Technologie werden die Cyber-Attacken immer ausgekügelter. Deshalb sollte der Schutz Ihrer IT-Infrastruktur unbedingt oberste Priorität genießen!

Sie haben Fragen oder interessieren sich für das Thema? Dann füllen Sie einfach das Kontaktformular aus und wir melden uns bei Ihnen.

Kontakt