La piattaforma di social media di Elon Musk, X (ex Twitter), è sotto esame dopo che il suo chatbot AI, Grok, è stato sfruttato per creare deepfake sessualmente espliciti di donne e ragazze. Gli utenti hanno dimostrato che con semplici istruzioni, Grok può generare immagini che ritraggono individui in abiti succinti o situazioni sessuali simulate senza il loro consenso. Questa situazione evidenzia un problema crescente: la facilità con cui gli strumenti di intelligenza artificiale possono essere utilizzati in modo improprio per produrre e distribuire immagini intime non consensuali (NCII), sollevando domande urgenti sul ricorso legale, sulla responsabilità della piattaforma e sulla protezione delle vittime.
La portata del problema
Una recente analisi di AI Forensics ha rivelato che circa il 2% delle immagini generate da Grok durante le vacanze raffiguravano individui che sembravano avere meno di 18 anni, inclusi alcuni in pose sessualmente allusive. Il problema non è nuovo: la tecnologia deepfake esiste da anni, con app come “DeepNude” che consentono abusi simili. Tuttavia, l’integrazione di Grok con X crea una combinazione pericolosa: creazione istantanea e distribuzione immediata su larga scala. Carrie Goldberg, avvocato per i diritti delle vittime, sottolinea questo punto: “È la prima volta che la tecnologia deepfake viene combinata con una piattaforma di pubblicazione immediata… consentendo ai deepfake di diffondersi rapidamente”.
La risposta di Musk e l’ambiguità giuridica
Elon Musk inizialmente ha risposto al contraccolpo condividendo immagini generate da Grok, inclusa una di se stesso in bikini, insieme a emoji ridenti. In seguito ha affermato che gli utenti che creano contenuti illegali dovranno affrontare delle conseguenze, ma l’ambiguità di ciò che costituisce un contenuto deepfake “illegale” rimane una sfida. La legge è in evoluzione, ma le tutele attuali non sono uniformi e spesso è troppo tardi per le vittime. Rebecca A. Delfino, professoressa associata di diritto, osserva che “la legge sta finalmente iniziando a trattare le immagini di nudo generate dall’intelligenza artificiale allo stesso modo in cui tratta altre forme di sfruttamento sessuale non consensuale”, ma l’applicazione è in ritardo rispetto alle capacità tecnologiche.
Nuovi quadri giuridici e limitazioni
Il Take It Down Act degli Stati Uniti, convertito in legge lo scorso maggio, criminalizza la pubblicazione consapevole di immagini esplicite generate dall’intelligenza artificiale senza consenso. Le piattaforme digitali sono ora tenute a implementare procedure di “segnalazione e rimozione” entro maggio 2026, rischiando sanzioni da parte della Federal Trade Commission (FTC) se non si conformano. Tuttavia, la portata della legge è limitata. Molte delle immagini generate da Grok, sebbene dannose, potrebbero non soddisfare i criteri espliciti richiesti per essere perseguiti ai sensi di questa legge, lasciando alle vittime un ricorso legale limitato.
Cosa possono fare le vittime
Se sei vittima di pornografia deepfake generata dall’intelligenza artificiale, è possibile adottare diverse misure:
- Preserva prova: cattura lo screenshot dell’immagine, salva l’URL e documenta il timestamp prima che venga modificato o rimosso.
- Segnala immediatamente: invia segnalazioni alla piattaforma in cui appare l’immagine, identificandola chiaramente come contenuto sessuale non consensuale. Seguilo con insistenza.
- Contattare l’NCMEC: Se l’immagine coinvolge un minore, segnalarlo al Centro nazionale per i bambini scomparsi e sfruttati (NCMEC). Le vittime possono persino denunciare immagini di se stesse scattate quando erano minorenni senza timore di ripercussioni legali.
- Consultare un consulente legale: una consultazione tempestiva con un avvocato può aiutare a orientarsi nelle iniziative di rimozione ed esplorare rimedi civili.
Il futuro dell’abuso dell’intelligenza artificiale
Gli esperti prevedono che l’uso improprio dell’intelligenza artificiale per lo sfruttamento sessuale non farà altro che peggiorare. Riana Pfefferkorn, ricercatrice politica presso lo Stanford Institute for Human-Centered AI, afferma che “Ogni servizio tecnologico che consente contenuti generati dagli utenti sarà inevitabilmente utilizzato in modo improprio”. La sfida sta nel fatto che le aziende creino solide garanzie contro le immagini illegali, bilanciando allo stesso tempo gli incentivi finanziari derivanti dai contenuti NSFW consentiti. L’atteggiamento sprezzante di Elon Musk suggerisce che X potrebbe non dare priorità a tali garanzie, lasciando le vittime vulnerabili agli abusi continui.
In conclusione, la proliferazione dei deepfake generati dall’intelligenza artificiale rappresenta una minaccia significativa per la privacy e la sicurezza individuale. Con l’avanzare della tecnologia, i quadri giuridici e le politiche relative alle piattaforme devono evolversi per proteggere le vittime e scoraggiare i perpetratori. La situazione attuale richiede un’azione immediata, compresi solidi meccanismi di segnalazione, responsabilità legale e una più ampia consapevolezza sociale del danno causato dalle immagini non consensuali generate dall’intelligenza artificiale.
