Iedereen heeft wel eens nep-filmpjes gezien van bekende politici die gekke dansjes doen. Of een snapchat filter op iemand zijn hoofd geplaatst. Dat deze technologie ook zijn keerzijde heeft, is duidelijk geworden in de rechtszaak van afgelopen 2 november. De rechtbank stond hier voor de vraag of een zogeheten ‘deepfake’ pornovideo onder het bereik van artikel 139h Sr valt.
Om deze vraag te kunnen beantwoorden is allereerst belangrijk om te begrijpen wat wordt verstaan onder een ‘deepfake’. Dit is een term voor de techniek voor het samenstellen van menselijke beelden op basis van kunstmatige intelligentie. Je kunt dus met deepfaketechnologie foto’s en video’s maken die echt lijken, maar niet echt zijn. Zo is er bijvoorbeeld een video gemaakt waarin Mark Rutte en Hugo de Jonge aan het dansen zijn, terwijl dit nooit is gebeurd. Dit soort filmpjes zijn nog redelijk onschuldig. Maar wat blijkt, 96 procent van alle ‘deepfake’ video’s die worden gemaakt, zijn ‘deepfake’ pornovideo’s.
De verdachte in de zaak van 2 november heeft van het slachtoffer een zogeheten ‘deepfake’ pornovideo gemaakt door het gezicht van het slachtoffer met deepfakesoftware op het gezicht van een porno-actrice te plaatsen. Hij heeft de video vervolgens openbaar gemaakt door deze op een internetsite te plaatsen, terwijl hij wist dat dit nadelig kon zijn voor het slachtoffer. Daarmee heeft hij zich naar het oordeel van de rechtbank schuldig gemaakt aan strafbare feiten zoals bedoeld in artikel 139h Sr. Om te komen tot dit oordeel moet positief worden beantwoord op de vraag of een deepfake pornovideo onder het bereik van dit wetsartikel valt. Dit komt in de kern neer op de vraag of het bestanddeel ‘afbeelding van seksuele aard’ uit artikel 139h Sr bewezen kan worden.
In rechtsoverwegingen 3.3.8 en verder heeft de rechtbank overwogen dat seksueel ‘deepfake’ beeldmateriaal kan worden gekwalificeerd als een afbeelding van seksuele aard van een persoon wanneer het, kort samengevat, zodanig lijkt dat het op het eerste gezicht door een redelijk denkend mens niet te onderscheiden is van echte beelden. In de onderhavige zaak staat vast dat verdachte een ‘deepfake’ pornovideo heeft gemaakt. De rechtbank heeft de bewuste ‘deepfake’ pornovideo in raadkamer bekeken. Op dat moment was de rechtbank zich er uiteraard van bewust dat het niet om een echte, maar een ‘deepfake’ pornovideo ging. Door met die wetenschap nauwkeurig naar de video te kijken, heeft de rechtbank een aantal inconsistenties waargenomen. Echter voor de gemiddelde, redelijk denkende mens die onbevangen en zonder deze voorkennis naar de ‘deepfake’ porno kijkt, zullen deze inconsistenties niet afdoen aan het realisme van de beelden en zal de video de indruk geven dat de persoon waarvan het hoofd op de video wordt gezien ook degene is die de seksuele handelingen verricht en ondergaat. De door verdachte gemaakte ‘deepfake’ pornovideo van het slachtoffer kan naar het oordeel van de rechtbank daarom aangemerkt worden als een afbeelding van seksuele aard van een persoon.
De door verdachte op de video geplaatste tekst dat het gaat om een ‘deepfake’ maakt dat niet anders. Daarbij neemt de rechtbank in aanmerking dat de strafbaarheid van de gedraging ligt in de productie van het seksuele beeldmateriaal zelf. Als verdachte de ‘deepfake’ pornovideo op zijn eigen computer had laten staan, dan zou dit nog steeds een strafbaar feit als bedoeld in artikel 139h lid 1 onder a Sr hebben opgeleverd. In dat opzicht maakt het dan ook niet uit of in de video wel of niet wordt vermeld dat het om een ‘deepfake’ gaat. Het verweer van de raadsvrouw op dat punt slaagt daarom niet.
Verdachte heeft verder ontkend dat hij wist dat deze openbaarmaking voor het slachtoffer nadelig kon zijn. Hij heeft er naar eigen zeggen ‘niet over nagedacht’. Desalniettemin is de rechtbank van mening dat de uiterlijke verschijningsvorm van het handelen van verdachte maakt dat bewezen is dat verdachte op zijn minst bewust de aanmerkelijke kans heeft aanvaard dat de openbaarmaking van de deepfake pornovideo voor aangeefster nadelig zou zijn.
De 39-jarige man die de hierboven besproken ‘deepfake’ pornovideo heeft gemaakt en gepubliceerd, is veroordeeld tot een voorwaardelijke taakstraf van 180 uur. Hierbij zijn de persoonlijke omstandigheden van verdachte meegenomen. De rechtbank heeft daarbij de psychische gevolgen die zijn ontstaan voor het slachtoffer, waarvan zonder toestemming een ‘deepfake’ pornovideo is gemaakt en gepubliceerd, in aanmerking genomen. Je kunt je voorstellen dat gevoelens als schaamte, onveiligheid en onmacht een grote rol spelen. Tot slot speelt mee dat eenmaal op het internet verspreid materiaal vaak niet (volledig) kan worden verwijderd en uitgewist. Ook lang na de publicatie kunnen slachtoffers hier nog mee worden geconfronteerd.
Deze rechtszaak bevestigt opnieuw dat de snelle ontwikkelingen van de technologie niet alleen positief zijn. De zogenoemde ‘deepfake’ pornovideo’s kunnen dan ook veel schade aanrichten. Neemt de negatieve kant van kunstmatige intelligentie de overhand?