Hoe stoppen wet- en regelgeving de digitale opmars van deepfakes?

Evert Stamhuis

De productie en consumptie van deepfakes zitten in de lift. De kans dat er een gemanipuleerde politieke uitspraak of pornografisch beeld op het internet rondgaat is steeds groter. Experts doen de alarmerende voorspelling dat deepfaketechnologie de komende jaren alleen maar aan terrein zal winnen. Vanuit alle hoeken van de samenleving klinkt dan ook de roep om verandering. Onderzoeksinstanties, (internationale) opsporingsdiensten, slachtoffers, media en politici hebben allemaal hun een eigen visie op wat er moet gebeuren om deepfakes in de toekomst goed aan te pakken. Evert Stamhuis, hoogleraar Law and Innovation aan Erasmus School of Law, licht toe wat er volgens hem nodig is om dit technologische vraagstuk juridisch in te bedden. 

In verschillende rapporten wordt een deepfake gedefinieerd als een bijzondere vorm van synthetische media. Het gaat hier om gemanipuleerde communicatiemiddelen die een valse boodschap uitdragen of een onecht beeld overbrengen. Er bestaat dan ook een breed scala aan deepfakes: van gefotoshopte plaatjes tot gemanipuleerd video- of audiomateriaal. Waar de deepfake-techniek aanvankelijk ontwikkeld werd voor entertainment en een grappige, ‘onschuldige’ of onderhoudende ondertoon had, wordt nu ook de andere kant van de medaille zichtbaar. “Vooral het met kunstmatige intelligentie gemanipuleerd beeldmateriaal (foto en video) blijkt vele mogelijkheden tot onwenselijk of ronduit schadelijk of gevaarlijk gedrag te bieden. Doordat kunstmatige intelligentie steeds beter wordt, worden ook de deepfakes steeds moeilijker van de realiteit te onderscheiden”, vertelt Stamhuis. 

Verspreiding heeft nare gevolgen 

“Eenmaal verspreid op sociale media of foto- en videoplatformen kunnen dergelijke valse boodschappen nare gevolgen hebben. Er zijn genoeg voorbeelden van de verspreiding van deepfakes om individuele personen te beschadigen of politieke bondgenootschappen te verzwakken”, vult Stamhuis aan. Denk bijvoorbeeld aan de schijnvideo die in maart 2022 verspreid werd waarin de Oekraïense president Zelensky zijn troepen beval de wapens neer te leggen. Naast het verdraaien van politieke boodschappen wordt het deepfaken van pornografisch materiaal steeds populairder. In 2020 was volgens Sensity – een bedrijf dat onderzoek doet naar de verspreiding van deepfakes – maar liefst 93% van de bespeurde deepfakes porno. 

De benodigde deepfake-software die gebruik maakt van kunstmatige intelligentie om materiaal te manipuleren was lange tijd uitsluitend in luxueuze filmstudio’s te vinden. Tegenwoordig is dergelijke software veel toegankelijker via het internet.  

Huidige wetgeving biedt handvatten 

Begin 2022 publiceerden onderzoekers van Tilburg Universiteit op verzoek van het Wetenschappelijk Onderzoek- en Documentatiecentrum (WODC) een rapport over de aard, omvang en schade van deepfakes. De vraag naar dit onderzoek kwam voort uit de grote zorgen van de Tweede Kamer over de toename van deepfake-producties en de gevolgen daarvan. Het rapport stelt onder meer dat het huidige Nederlandse strafrecht al voldoende handvatten biedt voor de regulering van deepfakes. 

Zo verbiedt artikel 139h van het Wetboek van Strafrecht – dat sinds 2020 van kracht is – het maken van, beschikken over en openbaren van wraakporno. De vraag is of het Openbaar Ministerie en de rechter het manipuleren van beeldmateriaal ook onder dit artikel insluiten, aangezien de letter van de wet ‘afbeeldingen van seksuele aard’ betreft en vrij arbitrair is. Hoewel de insluiting van deepfakes bij wraakporno nog grijs gebied is, geldt dit volgens Stamhuis niet voor kinderporno. Hij wijst op artikel 240b van het Wetboek van Strafrecht: “Onze wetgever heeft virtuele kinderporno meegenomen in de strafbaarstelling van verspreiding in artikel 240b. Zodoende zijn ook kinderpornografische deepfakes strafbaar.” 

Daarnaast kunnen deepfakes volgens de onderzoekers worden aangepakt met behulp van bestaande regels over fraude, misleiding en aantasting van privacy. Ook zou de Algemene verordening gegevensbescherming (AVG) deepfake-productie op Europees niveau mogelijk geheel kunnen verbieden, gezien gegevens volgens deze wet alleen mogen worden gebruikt voor het doel waarvoor ze zijn verzameld. Toch ziet Stamhuis hier bezwaren: “Dit is een vrij onpraktische gedachte aangezien de handhaving van de AVG in handen is gelegd van de Autoriteit Persoonsgegevens, die te weinig capaciteit heeft en slechts over een bestuursrechtelijk instrumentarium beschikt.” 

Om technologie te monitoren, zijn we afhankelijk van technologie 

Volgens Stamhuis is de aanpak van deepfakes met behulp van juridische instrumenten hoe dan ook problematisch als de bron van de valse materie zich buiten de Europese Unie bevindt. “We zijn in veel gevallen afhankelijk van de medewerking van digitale platformen. Meer en meer krijgen die dan ook te maken met de verwachting of zelfs de verplichting om illegale content te verwijderen. Het monitoren op illegale content wordt met behulp van algoritmes gedaan, maar die software biedt geen garantie dat alle deepfakes ook daadwerkelijk herkend worden, afgezien van de vraag welke deepfakes werkelijk illegaal zijn en welke vooral onprettig of onwenselijk.” 

Verder werpt Stamhuis een blik op de voorgenomen Europese verordening op de artificiële intelligentie (AI Act). Hierin wordt de bestrijding van illegale deepfakes niet verder uitgebouwd. Wel moeten individuele gebruikers geïnformeerd worden op het moment dat zij communiceren met een ‘fake’ personage, bijvoorbeeld op een commerciële website. “Een chatbot met een realistische videopresentatie moet dan dus van een consumentenwaarschuwing voorzien zijn. In deze verordening wordt het toezicht en de handhaving aan een AI-autoriteit op nationaal niveau opgedragen”, legt Stamhuis uit.  

Onderzoekers leggen accent op consument 

Er zijn dus verschillende juridische mogelijkheden om deepfakes in te bedden. Het is echter de handhaving van deze regels die met problemen kampt. De handhaving loopt achter door de grootschaligheid van het probleem. De onderzoekers van Tilburg Universiteit opperen dan ook de mogelijkheid om de handhavingsdruk te verlagen door het produceren, aanbieden, gebruiken en in bezit hebben van deepfake-technologie te verbieden op de consumentenmarkt. Het huidige recht legt immers niet het maken en aanbieden van deepfakes aan banden, maar het gebruik ervan voor specifieke doeleinden. Door het accent op de consumentenzijde te leggen zou de druk op de handhavingsketen afnemen. 

“You made it, you fix it.” 

Het vraagstuk over een verbod op deepfake-technologie rees in eerste instantie door het stijgende aantal pornografische deepfakes. Het probleem reikt echter verder en Stamhuis ziet vooral een pijnpunt bij de deepfakes die niet van seksuele aard zijn, maar ons concept van waarheid wel ondermijnen. Die ondermijning heeft volgens hem gevolgen voor de manier waarop wij ‘de waarheid’ vaststellen, bijvoorbeeld in rechtszaken, politieke debatten en de wetenschap. “Het verbieden van een speciaal marktsegment lijkt me helaas weinig effectief. Ik verwacht meer van een technologische toolbox om deepfakes te ontmaskeren. Dat zou het probleem ook terugleggen bij de bron: de technologische sector. You made it, you fix it”, vertelt Stamhuis. Bovendien stelt hij dat maatschappelijke bewustwording over deepfakes en het feit dat deze niet alleen maar grappig zijn zeer wenselijk is: “Het is spelen met vuur als je ze liket of linkt.” 

Professor
Evert Stamhuis, hoogleraar Law and Innovation
Meer informatie

Geïnteresseerd in juridische tech-vraagstukken? Bekijk de master Recht & Technologie.

Vergelijk @count opleiding

  • @title

    • Tijdsduur: @duration
Vergelijk opleidingen