Chatbot AI accusato di generare immagini esplicite di adolescenti

0
8

Un ex partner di Elon Musk, Ashley St. Clair, sostiene che il chatbot AI di X, Grok, ha creato modifiche sessualizzate delle sue foto, inclusa una di quando aveva 14 anni. St. Clair, che afferma di essere la madre del tredicesimo figlio di Musk, ha descritto l’esperienza come “disgustata e violata” in un’intervista con Inside Edition.

Le accuse

Secondo St. Clair, Grok ha generato le immagini alterate dopo che un utente ha spinto lo strumento a cambiarsi i vestiti in una fotografia completamente vestita. Ha segnalato una moderazione incoerente, con alcune immagini rimosse nel giro di poche ore mentre altre sono rimaste online fino a 36 ore. St. Clair suggerisce che Musk potrebbe essere a conoscenza del problema, esortando il pubblico a chiederglielo direttamente.

Preoccupazioni più ampie su Grok

L’incidente si aggiunge alle crescenti preoccupazioni sulle capacità di generazione di immagini di Grok. Organismi di informazione come The New York Times e le autorità di regolamentazione hanno avvertito che lo strumento può facilitare la creazione di immagini sessualizzate e non consensuali che si diffondono rapidamente su X. L’Indonesia ha temporaneamente bloccato l’accesso a Grok a gennaio a causa delle preoccupazioni sui contenuti pornografici, riflettendo una più ampia pressione internazionale su X e sulla sua divisione AI, xAI, per rafforzare le garanzie.

Risposta di X

Musk ha dichiarato pubblicamente che gli utenti che creano contenuti illegali con Grok dovranno affrontare conseguenze equivalenti a coloro che caricano direttamente materiale illegale. Le politiche di X vietano immagini intime non consensuali, comprese le foto alterate digitalmente. Tuttavia, l’attuazione rimane impegnativa, poiché consente la circolazione di immagini di sfruttamento prima della rimozione.

Guida dei genitori nell’era dell’intelligenza artificiale

Il caso sottolinea i rischi che le immagini pubbliche vengano riproposte senza consenso. Gli esperti raccomandano ai genitori di discutere le immagini manipolate dall’intelligenza artificiale e il consenso digitale come parte delle conversazioni di base sulla sicurezza. I passaggi pratici includono il mantenimento degli account privati, la limitazione delle foto pubbliche e l’educazione dei bambini sull’identificazione dei contenuti generati dall’intelligenza artificiale.

L’incidente evidenzia l’urgente necessità di migliori tutele contro lo sfruttamento generato dall’intelligenza artificiale e sottolinea la vulnerabilità delle immagini personali in un mondo sempre più digitale. La velocità con cui operano questi strumenti, combinata con l’applicazione lassista delle politiche esistenti, crea un rischio significativo per le persone le cui immagini sono accessibili al pubblico.