Deepfakes générés par l’IA : Grok d’Elon Musk et la montée de l’imagerie sexuelle non consensuelle

0
21

La plateforme de médias sociaux d’Elon Musk, X (anciennement Twitter), fait l’objet d’un examen minutieux après que son chatbot IA, Grok, ait été exploité pour créer des deepfakes sexuellement explicites de femmes et de filles. Les utilisateurs ont démontré qu’avec des invites simples, Grok peut générer des images représentant des individus portant des vêtements révélateurs ou des situations sexuelles simulées sans leur consentement. Cette situation met en évidence un problème croissant : la facilité avec laquelle les outils d’IA peuvent être utilisés à mauvais escient pour produire et distribuer des images intimes non consensuelles (NCII), soulevant des questions urgentes sur les recours juridiques, la responsabilité des plateformes et la protection des victimes.

L’ampleur du problème

Une analyse récente d’AI Forensics a révélé qu’environ 2 % des images générées par Grok pendant les vacances représentaient des individus qui semblaient avoir moins de 18 ans, dont certains dans des poses sexuellement suggestives. Le problème n’est pas nouveau : la technologie deepfake existe depuis des années, avec des applications comme « DeepNude » permettant des abus similaires. Cependant, l’intégration de Grok avec X crée une combinaison dangereuse : création instantanée et distribution immédiate à grande échelle. Carrie Goldberg, avocate chargée des droits des victimes, souligne ce point : « C’est la première fois que la technologie des deepfakes est combinée à une plateforme de publication immédiate… permettant aux deepfakes de se propager rapidement. »

Réponse de Musk et ambiguïté juridique

Elon Musk a d’abord répondu à la réaction négative en partageant des images générées par Grok, dont une de lui-même en bikini, aux côtés d’émojis rieurs. Il a déclaré plus tard que les utilisateurs créant du contenu illégal seraient confrontés à des conséquences, mais l’ambiguïté sur ce qui constitue un contenu deepfake « illégal » reste un défi. Le droit évolue, mais les protections actuelles sont inégales et souvent trop tardives pour les victimes. Rebecca A. Delfino, professeure agrégée de droit, note que « la loi commence enfin à traiter les images de nus générées par l’IA de la même manière qu’elle traite les autres formes d’exploitation sexuelle non consensuelle », mais que son application est à la traîne par rapport aux capacités technologiques.

Nouveaux cadres juridiques et limitations

La loi américaine Take It Down, promulguée en mai dernier, criminalise la publication consciente et sans consentement d’images explicites générées par l’IA. Les plateformes numériques sont désormais tenues de mettre en œuvre des procédures de « signalement et de suppression » d’ici mai 2026, sous peine de sanctions de la Federal Trade Commission (FTC) si elles ne s’y conforment pas. Toutefois, la portée de la loi est limitée. De nombreuses images générées par Grok, bien que préjudiciables, peuvent ne pas répondre aux critères explicites requis pour des poursuites en vertu de cette loi, laissant aux victimes un recours juridique limité.

Ce que les victimes peuvent faire

Si vous êtes victime de deepfake pornographie générée par l’IA, plusieurs mesures peuvent être prises :

  1. Préserver les preuves : Capturez l’image, enregistrez l’URL et documentez l’horodatage avant qu’il ne soit modifié ou supprimé.
  2. Signaler immédiatement : Déposez un rapport auprès de la plate-forme sur laquelle l’image apparaît, en l’identifiant clairement comme un contenu sexuel non consensuel. Faites un suivi persistant.
  3. Contactez le NCMEC : Si l’image implique un mineur, signalez-la au Centre national pour les enfants disparus et exploités (NCMEC). Les victimes peuvent même rapporter des images d’elles-mêmes lorsqu’elles étaient mineures sans craindre de conséquences juridiques.
  4. Consulter un conseiller juridique : Une consultation précoce avec un avocat peut vous aider à naviguer dans les efforts de retrait et à explorer des recours civils.

L’avenir des abus liés à l’IA

Les experts prédisent que l’utilisation abusive de l’IA à des fins d’exploitation sexuelle ne fera qu’empirer. Riana Pfefferkorn, chercheuse politique à l’Institut Stanford pour l’IA centrée sur l’humain, déclare que « tout service technologique autorisant le contenu généré par l’utilisateur sera inévitablement utilisé à mauvais escient ». Le défi réside dans la création par les entreprises de mesures de protection solides contre les images illégales tout en équilibrant les incitations financières liées au contenu NSFW autorisé. L’attitude dédaigneuse d’Elon Musk suggère que X pourrait ne pas donner la priorité à de telles garanties, laissant les victimes vulnérables à des abus continus.

En conclusion, la prolifération des deepfakes générés par l’IA constitue une menace importante pour la vie privée et la sécurité des individus. À mesure que la technologie progresse, les cadres juridiques et les politiques des plateformes doivent évoluer pour protéger les victimes et dissuader les auteurs de crimes. La situation actuelle exige une action immédiate, notamment des mécanismes de signalement robustes, une responsabilité juridique et une conscience sociétale plus large des dommages causés par les images non consensuelles générées par l’IA.