Wat moet je weten van deepfakes en de nieuwe Artificial Intelligence Act?

May 24, 2024
Alleen al bij het typen van ‘deepfakes’ lopen mij de rillingen over het lijf. Mijn angst betreft vooral de praktische mogelijkheden die er zijn, zonder al te veel veiligheidsmaatregelen. Zo kon er in 2020 al een vergelijkbaar, misschien wel beter, verjongingsfilter gebruikt worden voor de film ‘The Irishmen’ door het YouTube kanaal ''Shamook''. Met de nieuwe voorlopige Artificial Intelligence Act (AI Act), wil de EU proberen de technologische ontwikkelingen in goede banen te leiden. De vraag blijft: wat betekent de AI Act voor de gevaren van deepfakes?

Onvoorziene gevaren van AI toepassingen

Het deepfake filmpje van bekende Nederlandse politici, waarin allerlei liedjes werden gezongen, is een van de vele filmpjes die viraal zijn gegaan. Echter zijn er ook voorbeelden waar AI voor minder goede doeleinden werd ingezet, zoals bij de deepfake porno die van Welmoed Sijtsma is gemaakt. Met de toename in populariteit van AI wordt het veel makkelijker om iemands stem of gezicht na te bootsen. Het wordt daarnaast ook steeds lastiger om waargebeurde content van de deepfakes te onderscheiden. Het lijkt er dus op dat deepfakes strengere regels vereisen. Niet alleen maar om bewustzijn over deepfake content te creeëren, maar ook om het maken en distribueren van dit soort content aan banden te leggen.

De voorlopige AI Act probeert in ieder geval wat kaders te schetsen waarbij bepaalde relevante aspecten van deepfakes worden verboden of transparanter gemaakt. Voor hoog-risico systemen wordt het verplicht om een Data Protection Impact Assessment (DPIA) uit te voeren, maar deepfake modellen zouden hier niet onder vallen aangezien zij niet als hoog risico worden gekwalificeerd onder de AI Act. Hierdoor zou er minder onderzoek gedaan kunnen worden naar de impact van het gebruik van deepfakes. Gelukkig zou onder de AVG er wel sprake kunnen zijn van een hoog risico en daardoor een noodzaak voor een DPIA. In de AI Act worden daarnaast open-source modellen uitgezonderd van regulering binnen de scope van de AI act. Dit stimuleert het open-source maken van AI-modellen en zou kunnen leiden tot nog meer verspreiding van deepfake modellen.

Een ander voorbeeld van goede intentie in de AI Act, maar dat op dit moment minder praktisch uitwerkt, is het labelen van het deepfake materiaal1. Hoewel het goed is om dit soort materiaal te labelen voor transparantie doeleinden, is het nog maar de vraag in hoeverre dit het probleem van verspreiding van deepfakes tegen zal gaan. Het labelen zou moeten gebeuren door de gebruiker van het deepfake model om transparantie te geven over wat voor audio- of beeldmateriaal bewerkt is. Maar een kwaadwillende gebruiker zou dit label uiteraard weg kunnen laten. Daarnaast zijn er nog geen concrete standaarden over hoe het labelen gedaan moet worden.

De stimulering van open-source zou het makkelijker maken om toegang te krijgen tot AI-modellen. Deze versimpelde toegang kan leiden tot een brede distributie van de modellen. Hierdoor zou iedereen er in de praktijk gebruik van kunnen maken voor hun eigen doeleinden. Op dit moment lijkt er te passieve wetgeving te zijn omtrent de productie van deepfakes. Wat kunnen we zelf doen tegen deepfakes? Om erachter te komen is het goed om te weten hoe ze werken.

Hoe werken deepfakes?

De basis voor het genereren van deepfakes zijn Generative Adversarial Networks (GANs). Deze vorm van neurale netwerken bestaat uit twee ‘spelers’ die van elkaar proberen te winnen. De ene speler heet de generator die afbeeldingen en video’s creëert. De tweede speler noemen we een discriminator die probeert te ontdekken of het materiaal origineel of gegenereerd is. Er wordt dus in zekere zin een spel tussen de generator en discriminator gespeeld waarin de generator de discriminator probeert te overtuigen van de echtheid. Dit lijkt erg handig omdat er hierdoor een kwaliteitseis gesteld is.

Als we GANs één stapje dieper bekijken dan zien we dus dat het genereren van de output afhankelijk is van de data die het netwerk tot z’n beschikking krijgt. De data kan uit verschillende typen bestaan zoals afbeeldingen, audio en tekst. Vaak wordt het laatste in combinatie gebruikt met afbeeldingen of audio. Zo maken GAN modellen zoals DALL-E gebruik van Stable Diffusion. Dit is een technologie waarbij er op basis van tekst als input een afbeelding wordt gegenereerd. Dit soort modellen zijn weer makkelijk te combineren met Large Language Models waardoor je een gestroomlijnd proces van zowel tekst als beeld generering kan krijgen.

GANs worden al gecombineerd met andere modellen. Je hoeft er slechts één keer naar te zoeken in je zoekmachine en er ligt al kant en klare code die gebruikt kan worden. Zelfs in de appstores zijn er al applicaties te vinden die gebruik maken van dit soort modellen. Het enige wat nog nodig is, is de data om het te voeden. Dit is uiteindelijk waar het gebruik problemen kan veroorzaken. Met het feit dat de modellen geavanceerder worden, heeft men minder data nodig om een meer geloofwaardige output te produceren.

Een deepfake maakt uiteindelijk gebruik van twee vormen van materiaal die met elkaar gecombineerd kunnen worden. Zowel audio- als beeldmateriaal. Zo kan men het gezicht van een persoon op het lichaam van iemand anders projecteren (een soort Snapchat filter). Daarna kunnen stemmen er overheen gelegd worden om het ‘masker’ van de deepfake geloofwaardiger over te laten komen. De uiteindelijke output is dan een bewegend gezicht met bijbehorende stem die gemanipuleerde berichten kan verspreiden. Deze gemanipuleerde berichten kunnen op basis van tekst gegenereerd worden, maar het kan ook door een combinatie van twee beelden en audiofragmenten. Voor een deepfake is dus input van twee kanten nodig: hetgeen dat men wil manipuleren en hetgeen waartoe men het wil manipuleren.

Een GAN op zichzelf is niet iets schadelijks, maar des te geavanceerder het model des te lastiger het wordt om het origineel van het gegenereerde te onderscheiden. Dit principe zit immers in het model ingebouwd door de discriminator. Het is misschien nog belangrijker wat men er in stopt. Garbage in garbage out. In het geval van deepfakes is het misschien meer: onrechtmatige in(tentie) leidt tot een kwalijke uit(komst). Meerdere bekende Nederlanders zijn hiervan slachtoffer geworden. Niet alleen de deepfakes kunnen schade aan richten, maar ook de dreiging ervan kan tot politieke en economische schade leiden. Een video van voormalig president van Gabon die er een beetje vreemd uit zag werd onterecht voor een deepfake aangezien. Dit leidde uiteindelijk tot een couppoging.

Hoe kunnen we ons beschermen tegen deepfakes?

Ik hoor je al denken “Moet ik nu al mijn data van het internet af halen?” en “Is er een manier om neppe foto’s te traceren?”. Helaas kan ik deze blog niet eindigen met één oplossing. De standaard tip om te zorgen dat er geen deepfakes van je worden gemaakt is: zorg dat jouw foto’s alleen voor bekenden, directe kennissen of connecties te zien zijn. Als tweede tip: wees voorzichtig met wat je deelt en waar je het deelt. Tenslotte, duik vooral wat dieper in de bron bij twijfel. Kijk hierbij of andere grotere journalistieke media het bevestigen en vergelijk deze vooral met elkaar. Voorbeelden zijn Bellingcat of journalisten die verbonden zijn aan de Nederlandse Vereniging van Journalisten. Dit is wat je kan doen, maar de schade die deepfakes aan kunnen richten zit vaak al in de verspreiding ervan.

Tegelijkertijd komt er met de schade die wordt aangericht ook meer aandacht voor het probleem. Een paar maanden geleden was er in de media veel aandacht voor Taylor Swift die slachtoffer was geworden van deepporno. Deze soort gebeurtenissen zijn choquerend, maar ze bieden ook aanleiding voor gesprek over het gebruik en de gevolgen van deepfakes. Het heeft namelijk geleid tot een voorstel van de DEFIANCE act. Ook zijn er bedrijven zoals DuckDuckGoose die producten ontwikkelen om deepfakes te detecteren. Het is ook hoopvol om te zien dat er dit soort oplossingen worden voorgesteld. Toch zijn er helaas veel slachtoffers waarvan een groot deel zich hier niet over durft uit te spreken. Laten we daarom vooral het gesprek over deepfakes blijven voeren. Niet alleen om tot oplossingen te komen, maar ook om onze echte menselijke waardigheid niet aan te laten tasten door de neppe gegenereerde deepfakes.

1 Title IV Article 52 section 3 page 154 draft AIAct 2021

Download
Eloy
Stagiair