Steeds vaker verschijnen bedrieglijk echt ogende video’s waarin beroemdheden dingen zeggen of doen die je niet zou verwachten dat ze zouden doen: Barack Obama valt bijvoorbeeld zijn opvolger aan, of Mark Zuckerberg bekent dat hij alle gegevens van Facebook-gebruikers heeft doorgegeven aan het publiek … Maar deze mensen hebben niet echt iets gezegd of gedaan. Dit zijn zogenaamde Deepfake-video’s, die zijn gemaakt met behulp van kunstmatige intelligentie.

Zelfs als een groot aantal van dergelijke video’s relatief snel nog steeds als nep kan worden ontmaskerd, wordt deze technologie voortdurend verbeterd en heeft deze een hoog potentieel voor gevaar. Het wordt steeds moeilijker om dergelijke valse informatie op te sporen – daarnaast gebruiken cybercriminelen ook deepfakes om bedrijven met nieuwe oplichting aan te vallen: The Wall Street Journal meldde bijvoorbeeld dat een niet-gespecificeerd Brits bedrijf het slachtoffer werd van een deepfake-aanval. In dit geval werd de stem van de CEO van het Duitse moederbedrijf authentiek nagebootst met op AI gebaseerde software en werd het hoofd van het Britse bedrijf met succes gevraagd 243.000 dollar over te maken naar een buitenlandse bankrekening.

Vanwege deze ontwikkelingen gaat Hornetsecurity dieper ingaan op het onderwerp Deepfakes.

Wat is een deepfake?

Deepfakes zijn gemanipuleerde video- en audiobestanden die de biometrische kenmerken van een persoon imiteren met details zoals uiterlijk, gezichtsuitdrukkingen of stem op een bedrieglijk reële manier. De term is samengesteld uit Deep Learning, dat een speciale AI-technologie beschrijft en hoe je iemand of iets imiteert, met andere worden dat iets nep is.

Om Deepfake-video’s te maken, worden kunstmatige neurale netwerken, die een bepaald leervermogen hebben, gevoed met beeld- of videomateriaal. Op basis van het bronmateriaal kan de AI-software leren om de te imiteren persoon in een andere context te vertegenwoordigen. De kwaliteit van het resultaat hangt af van de omvang van het bronmateriaal en van de hoeveelheid lagen het gebruikte neurale netwerk heeft – d.w.z. hoe “diep” het is. Om de imitatie te creëren, werken twee algoritmen samen: terwijl de ene de namaak maakt, controleert de andere het resultaat op fouten. De authenticiteit van de namaak neemt toe met het aantal herhalingen van dit leerproces.

Maar video’s zijn niet het enige dat kan worden vervalst met AI en Deep Learning, ook nepstemmen kunnen worden gemaakt met een vergelijkbare methode.

Waarom neemt het aantal deepfakes toe?

Nog niet zo lang geleden konden gezichten in video’s alleen worden vervangen door uitgebreide CGI-effecten met deskundige kennis en hoge kosten, dit is nu ook mogelijk voor IT-leken dankzij gratis beschikbare AI-software zoals DeepFaceLab. Zelfs dure hardware is niet meer nodig. Gebruikers die een te zwakke grafische kaart hebben, kunnen bijvoorbeeld de Colab van Google gebruiken om tot twaalf uur AI-training in de cloud te laten uitvoeren. Als het programma eenmaal met materiaal is gevuld, creëert het de manipulatie zoveel mogelijk automatisch. Bovendien evolueren de deep learning-mechanismen voortdurend en vereisen steeds minder opnames. Hoewel oorspronkelijk enkele uren videosequenties nodig waren, hebben sommige AI’s slechts een paar afbeeldingen nodig om gezichten uit te wisselen.

Het proces van het imiteren van een stem is vergelijkbaar: programma’s zoals Lyrebird hebben slechts een paar minuten aan audiomateriaal nodig om geloofwaardige imitaties te genereren.

Hoewel beroemdheden tot dusver de belangrijkste doelwitten waren, blijkt uit de aan het begin beschreven zaak dat cybercriminelen de technologie ook gebruiken om bedrijven aan te vallen.

Welke deepfake-aanvallen mogen bedrijven verwachten?

De IT-beveiligingsexperts van Hornetsecurity zien een hoog risicopotentieel op twee specifieke gebieden: Een zwendel is de zogenaamde CEO-fraude, waarbij cybercriminelen zich voordoen als leidinggevenden in e-mails met een persoonlijk adres en werknemers proberen over te halen grote sommen geld te betalen. Met de Deepfake-technologie is het nu mogelijk om de geloofwaardigheid van deze CEO-zwendel drastisch te vergroten door valse video- of audiobestanden bij te voegen.

Door de snelle ontwikkeling van de technologie is het ook denkbaar dat de fraudeurs zelfs rechtstreeks via telefoon of video-oproep contact kunnen opnemen met werknemers en zich in realtime kunnen voordoen als de CEO. Het geval van het Britse bedrijf dat aan het begin van dit artikel werd genoemd, toont aan dat deze procedure in de praktijk al met succes is toegepast: de CEO dacht de algemeen directeur van het Duitse moederbedrijf aan de telefoon te hebben, en heeft in opdracht van hem, 243.000 dollar overgemaakt aan een vermeende leverancier.

Een andere tactiek kan ook een probleem worden: cybercriminelen creëren deepfakes waarbij leidinggevenden over hun eigen bedrijf praten, bijvoorbeeld het aankondigen van een faillissement. Ze dreigen dit materiaal door te geven aan de media of om het te publiceren op social media.

Hoe kunnen deepfake-aanvallen worden gedetecteerd en worden voorkomen?

Bij deepfakes die bedoeld zijn om het bedrijf via e-mail binnen te komen, bestaat de kans dat spam- en malwarefilters de e-mail blokkeren en voorkomen dat de bijgevoegde of gekoppelde audio- of videobestanden worden geopend. De filters kunnen deepfakes echter niet per se herkennen, maar analyseren de berichten bijvoorbeeld om te bepalen of het domein, IP-adres of afzender op de zwarte lijst staat of dat ze schadelijke links of bijlagen bevatten

Hoe meer gefocust en individueel de aanvaller is, hoe groter de kans dat de aanval zijn doel met succes bereikt.
Het wordt bijzonder gevaarlijk als de aanval wordt uitgevoerd via telefoon of videogesprek, omdat er in dit geval geen beveiligingsmechanismen kunnen optreden.

De IT-beveiligingsexperts van Hornetsecurity benadrukken daarom dat het cruciaal is om medewerkers en managers bewust te maken van dit nieuwe dreigingsscenario. Alleen een voldoende bewustzijn van deze vorm van aanval kan op dit moment een effectieve bescherming bieden.