Het sociale mediaplatform van Elon Musk, X (voorheen Twitter), wordt onder de loep genomen nadat zijn AI-chatbot, Grok, werd uitgebuit om seksueel expliciete deepfakes van vrouwen en meisjes te creëren. Gebruikers hebben aangetoond dat Grok met eenvoudige aanwijzingen afbeeldingen kan genereren van individuen in onthullende kleding of gesimuleerde seksuele situaties zonder hun toestemming. Deze situatie benadrukt een groeiend probleem: het gemak waarmee AI-instrumenten kunnen worden misbruikt om niet-consensuele intieme beelden (NCII) te produceren en te verspreiden, wat urgente vragen oproept over rechtsmiddelen, platformaansprakelijkheid en slachtofferbescherming.
De omvang van het probleem
Recente analyse door AI Forensics onthulde dat ongeveer 2% van de door Grok gegenereerde afbeeldingen tijdens de vakantie personen afbeeldde die jonger leken te zijn dan 18 jaar, waaronder sommigen in seksueel suggestieve poses. Het probleem is niet nieuw: deepfake-technologie bestaat al jaren, waarbij apps als ‘DeepNude’ soortgelijk misbruik mogelijk maken. De integratie van Grok met X creëert echter een gevaarlijke combinatie: onmiddellijke creatie en onmiddellijke distributie op schaal. Carrie Goldberg, advocaat voor de rechten van slachtoffers, benadrukt dit punt: “Het is de eerste keer dat deepfake-technologie wordt gecombineerd met een onmiddellijk publicatieplatform… waardoor deepfakes zich snel kunnen verspreiden.”
Musk’s reactie en juridische dubbelzinnigheid
Elon Musk reageerde aanvankelijk op de reactie door door Grok gegenereerde afbeeldingen te delen, waaronder een van hemzelf in bikini, naast lachende emoji’s. Later verklaarde hij dat gebruikers die illegale inhoud creëren met consequenties te maken zouden krijgen, maar de dubbelzinnigheid van wat “illegale” deepfake-inhoud inhoudt, blijft een uitdaging. De wet evolueert, maar de huidige bescherming is ongelijk en vaak te laat voor slachtoffers. Rebecca A. Delfino, universitair hoofddocent rechten, merkt op dat “de wet eindelijk door AI gegenereerde naaktbeelden op dezelfde manier begint te behandelen als andere vormen van niet-consensuele seksuele uitbuiting”, maar dat de handhaving achterblijft bij de technologische mogelijkheden.
Nieuwe juridische kaders en beperkingen
De Amerikaanse Take It Down Act, die afgelopen mei tot wet werd ondertekend, stelt de bewuste publicatie van door AI gegenereerde expliciete beelden zonder toestemming strafbaar. Digitale platforms zijn nu verplicht om tegen mei 2026 ‘rapportage- en verwijderprocedures’ te implementeren, en kunnen boetes krijgen van de Federal Trade Commission (FTC) als ze zich niet hieraan houden. De reikwijdte van de wet is echter beperkt. Veel van de door Grok gegenereerde beelden zijn weliswaar schadelijk, maar voldoen mogelijk niet aan de expliciete criteria die vereist zijn voor vervolging op grond van deze wet, waardoor slachtoffers beperkte rechtsmiddelen hebben.
Wat slachtoffers kunnen doen
Als u het slachtoffer bent van door AI gegenereerde deepfake-pornografie, kunt u verschillende stappen ondernemen:
- Bewijs bewaren: Maak een screenshot van de afbeelding, sla de URL op en documenteer de tijdstempel voordat deze wordt gewijzigd of verwijderd.
- Onmiddellijk melden: Dien rapporten in bij het platform waarop de afbeelding verschijnt, waarbij deze duidelijk wordt geïdentificeerd als seksuele inhoud zonder wederzijds goedvinden. Blijf volhardend opvolgen.
- Neem contact op met NCMEC: Als de afbeelding een minderjarige betreft, meld dit dan bij het National Center for Missing & Exploited Children (NCMEC). Slachtoffers kunnen zelfs beelden van zichzelf melden van toen ze minderjarig waren, zonder angst voor juridische gevolgen.
- Raadpleeg een juridisch adviseur: Vroegtijdig overleg met een advocaat kan helpen bij het navigeren door verwijderingspogingen en het onderzoeken van civiele rechtsmiddelen.
De toekomst van AI-misbruik
Deskundigen voorspellen dat het misbruik van AI voor seksuele uitbuiting alleen maar zal verergeren. Riana Pfefferkorn, beleidsmedewerker bij het Stanford Institute for Human-Centered AI, stelt dat “elke technische dienst die door gebruikers gegenereerde inhoud mogelijk maakt, onvermijdelijk zal worden misbruikt.” De uitdaging ligt in het feit dat bedrijven robuuste waarborgen tegen illegale beelden creëren en tegelijkertijd financiële prikkels uit toegestane NSFW-inhoud in evenwicht brengen. De afwijzende houding van Elon Musk suggereert dat X mogelijk geen prioriteit geeft aan dergelijke waarborgen, waardoor slachtoffers kwetsbaar worden voor aanhoudend misbruik.
Concluderend kan worden gesteld dat de proliferatie van door AI gegenereerde deepfakes een aanzienlijke bedreiging vormt voor de individuele privacy en veiligheid. Naarmate de technologie vordert, moeten wettelijke kaders en platformbeleid evolueren om slachtoffers te beschermen en daders af te schrikken. De huidige situatie vereist onmiddellijke actie, inclusief robuuste rapportagemechanismen, juridische aansprakelijkheid en een breder maatschappelijk bewustzijn van de schade die wordt veroorzaakt door niet-consensuele, door AI gegenereerde beelden.















