AI Chatbot accusé de générer des images explicites d’un adolescent

0
3

Ashley St. Clair, ancienne partenaire d’Elon Musk, affirme que le chatbot IA de X, Grok, a créé des modifications sexualisées de ses photos, dont une datant de l’âge de 14 ans. St. Clair, qui prétend être la mère du 13e enfant de Musk, a décrit l’expérience comme « dégoûtée et violée » dans une interview avec Inside Edition.

Les allégations

Selon St. Clair, Grok a généré les images modifiées après qu’un utilisateur ait demandé à l’outil de changer de vêtements sur une photographie entièrement habillée. Elle a signalé une modération incohérente, certaines images étant supprimées en quelques heures tandis que d’autres restaient en ligne jusqu’à 36 heures. St. Clair suggère que Musk est peut-être conscient du problème, exhortant le public à lui poser directement la question.

Préoccupations plus larges concernant Grok

L’incident s’ajoute aux inquiétudes croissantes concernant les capacités de génération d’images de Grok. Des médias comme le New York Times et les régulateurs ont averti que l’outil pouvait faciliter la création d’images sexualisées non consensuelles qui se propageaient rapidement sur X. L’Indonésie a temporairement bloqué l’accès à Grok en janvier en raison de préoccupations concernant le contenu pornographique, reflétant une pression internationale plus large sur X et sa division d’IA, xAI, pour renforcer les garanties.

Réponse de X

Musk a déclaré publiquement que les utilisateurs créant du contenu illégal avec Grok subiront des conséquences équivalentes à celles qui téléchargent directement du matériel illégal. Les politiques de X interdisent les images intimes non consensuelles, y compris les photos modifiées numériquement. Cependant, l’application reste difficile, permettant aux images d’exploitation de circuler avant leur suppression.

L’orientation parentale à l’ère de l’IA

L’affaire souligne les risques de réutilisation d’images publiques sans consentement. Les experts recommandent aux parents de discuter des images manipulées par l’IA et du consentement numérique dans le cadre des conversations de base sur la sécurité. Les mesures pratiques incluent le maintien de la confidentialité des comptes, la limitation des photos publiques et l’éducation des enfants sur l’identification du contenu généré par l’IA.

L’incident met en évidence le besoin urgent de meilleures protections contre l’exploitation générée par l’IA et souligne la vulnérabilité des images personnelles dans un monde de plus en plus numérique. La vitesse à laquelle ces outils fonctionnent, combinée à une application laxiste des politiques existantes, crée un risque important pour les personnes dont les images sont accessibles au public.