Fake News waren gestern — immer häufiger tauchen täuschend echt wirkende Videos auf, in denen Prominente Dinge sagen oder machen, die man von ihnen größtenteils nicht erwarten würde: So zieht Barack Obama über seinen Nachfolger her oder Mark Zuckerberg gesteht, dass er sämtliche Facebook-Nutzerdaten weitergegeben hat. Doch haben die Personen dies nicht wirklich von sich gegeben. Es handelt sich hierbei um sogenannte Deepfake-Videos, die mit Hilfe von Künstlicher Intelligenz produziert wurden.

Auch wenn sich eine große Anzahl solcher Videos noch relativ schnell als Fake entlarven lässt, verbessert sich diese Technologie stetig und birgt großes Gefahrenpotenzial. Es wird zunehmend schwieriger derartige Falschinformationen als solche zu erkennen — hinzukommt, dass auch Cyberkriminelle Deepfakes nutzen, um Unternehmen mit neuen Betrugsmaschen anzugreifen: Beispielsweise berichtete das The Wall Street Journal von einem nicht näher benannten britischen Unternehmen, das einer Deepfake-Attacke zum Opfer gefallen ist. Dabei wurde die Stimme des CEOs der deutschen Muttergesellschaft mithilfe einer KI-basierten Software authentisch imitiert und der Chef der britischen Firma erfolgreich dazu aufgefordert, 243.000 US-Dollar auf ein ausländisches Bankkonto zu überweisen.

Aufgrund dieser Entwicklungen möchte Hornetsecurity im Folgenden auf das Thema Deepfakes einen tiefergehenden Blick werfen.

Was ist ein Deepfake?

Unter Deepfakes werden manipulierte Videos und Audio-Dateien verstanden, die biometrische Merkmale von Personen wie Aussehen, Mimik oder Stimme täuschend echt imitieren. Der Begriff setzt sich aus Deep Learning, was eine spezielle KI-Technologie beschreibt, und Fake zusammen.

Für das Erstellen von Deepfake Videos werden künstliche neuronale Netze, die über eine gewisse Lernfähigkeit verfügen, mit Bild- oder Videomaterial gefüttert. Auf Grundlage des Quellmaterials kann die KI-Software erlernen, die zu imitierende Person in einem anderen Kontext darzustellen. Die Qualität des Ergebnisses hängt zum einen vom Umfang des Ausgangsmaterials ab und davon, über wie viele Schichten das verwendete Neuronale Netzwerk verfügt — also wie „tief“ es ist. Um die Imitation zu erstellen, arbeiten zwei Algorithmen im Wechselspiel: Während einer den Fake erstellt, überprüft ein zweiter das Ergebnis nach Fehlern. Die Authentizität des Fakes steigt mit der Anzahl der Wiederholungen dieses Lernprozesses.

Doch nicht nur Videos können mit KI und Deep Learning gefälscht werden, auch Fakes von Stimmen lassen sich mit einer ähnlichen Methode erstellen.

Warum gibt es immer mehr Deepfakes?

Während bis vor kurzem Gesichter in Videos nur mit Fachwissen und hohen Kosten durch aufwändige CGI-Effekte ausgetauscht werden konnten, ist dies mittlerweile dank frei zugänglicher KI-Software wie DeepFaceLab auch für IT-Laien möglich. Selbst teure Hardware ist nicht mehr nötig. Nutzer, die über eine zu leistungsschwache Grafikkarte verfügen, können zum Beispiel über Googles Colab bis zu zwölf Stunden KI-Training in der Cloud durchführen lassen. Ist das Programm erst einmal mit Material gefüttert, erstellt es die Manipulation weitestgehend automatisch. Hinzukommt, dass sich die Deep Learning-Mechanismen ständig weiterentwickeln und immer weniger Aufnahmen brauchen. Waren ursprünglich mehrere Stunden Videosequenzen notwendig, reichen manchen KIs bereits wenige Bilder, um Gesichter auszutauschen.

Ähnlich verhält es sich beim Nachahmen einer Stimme: Programme wie Lyrebird benötigen lediglich wenige Minuten Tonmaterial, um glaubwürdige Imitationen zu generieren.

Wurden bisher vor allem Prominente zum Ziel, zeigt der zu Beginn beschriebene Fall, dass sich auch Cyberkriminelle die Technologien zu eigen machen, um damit Unternehmen zu attackieren.

Mit welchen Deepfake-Attacken sollten Unternehmen rechnen?

Die IT-Sicherheitsexperten von Hornetsecurity sehen vor allem in zwei Bereichen ein hohes Gefahrenpotenzial: Eine erfolgsversprechende Betrugsmasche ist der sogenannte CEO-Fraud, bei dem sich Cyberkriminelle in E-Mails mit einer persönlichen Ansprache als Führungskraft ausgeben und Mitarbeiter zu Zahlungen von hohen Geldbeträgen bewegen wollen. Mit der Deepfake-Technologie besteht nun die Möglichkeit, die Glaubwürdigkeit dieser CEO-Fraud-Masche durch angehängte gefälschte Video- oder Audiodateien noch einmal drastisch zu erhöhen.

Denkbar ist aufgrund der schnellen Entwicklung der Technologie auch, dass sich die Betrüger sogar direkt per Telefon oder Videoanruf an die Mitarbeiter wenden und in Echtzeit als CEO ausgeben können. Dass dieses Vorgehen bereits in der Praxis erfolgreich angewandt wurde, zeigt der eingangs erwähnte Fall des britischen Unternehmens: Der CEO hielt einen Anrufer für seinen übergeordneten Geschäftsführer der deutschen Muttergesellschaft und transferierte auf dessen Anordnung hin 243.000 US-Dollar an einen vermeintlichen Lieferanten.

Eine andere Taktik könnte ebenfalls zum Problem werden: Cyberkriminelle erstellen Deepfakes, in denen sich Führungskräfte über das eigene Unternehmen äußern und beispielsweise eine drohende Insolvenz ankündigen. Unter Androhung, das Material an Medien weiterzugeben oder auf Social Media Kanälen zu veröffentlichen, erpressen sie die Firma.

Wie lassen sich Deepfake-Angriffe erkennen und verhindern?

Bei Deepfakes, die per E-Mail ins Unternehmen gelangen sollen, besteht die Chance, dass Spam- und Malware-Filter die E-Mail blockieren und es nicht zum Öffnen der angehängten oder verlinkten Audio- oder Videodateien kommen kann. Die Filter sind allerdings nicht in der Lage, Deepfakes an sich zu erkennen, sondern analysieren die Nachrichten beispielsweise dahingehend, ob Domain, IP-Adresse oder Absender geblacklisted sind oder schädliche Links bzw. Anhänge enthalten sind.

Je fokussierter und individueller Angreifer vorgehen, desto größer wird allerdings die Wahrscheinlichkeit, dass die Attacke ihr Ziel auch erreicht.
Besonders gefährlich wird es, wenn der Angriff per Telefon oder Videoanruf durchgeführt wird, da es hier bisher noch keine Sicherheitsmechanismen gibt, die einschreiten können.

Die IT-Sicherheitsexperten von Hornetsecurity betonen daher, dass es entscheidend ist, Mitarbeiter sowie Führungskräfte für dieses neue Bedrohungsszenario zu sensibilisieren. Nur ein ausreichendes Bewusstsein für diese Angriffsform kann im Augenblick einen effektiven Schutz darstellen.