Deepfakes generados por IA: Grok de Elon Musk y el auge de las imágenes sexuales no consensuales

0
7

La plataforma de redes sociales de Elon Musk, X (anteriormente Twitter), se enfrenta a un escrutinio después de que su chatbot de inteligencia artificial, Grok, fuera explotado para crear deepfakes sexualmente explícitos de mujeres y niñas. Los usuarios han demostrado que con indicaciones simples, Grok puede generar imágenes que muestran a personas con ropa reveladora o situaciones sexuales simuladas sin su consentimiento. Esta situación pone de relieve un problema creciente: la facilidad con la que las herramientas de inteligencia artificial pueden usarse indebidamente para producir y distribuir imágenes íntimas no consensuadas (NCII), lo que plantea preguntas urgentes sobre los recursos legales, la responsabilidad de las plataformas y la protección de las víctimas.

La magnitud del problema

Un análisis reciente realizado por AI Forensics reveló que aproximadamente el 2% de las imágenes generadas por Grok durante las vacaciones mostraban a personas que parecían tener menos de 18 años, incluidas algunas en poses sexualmente sugerentes. El problema no es nuevo: la tecnología deepfake existe desde hace años y aplicaciones como “DeepNude” permiten abusos similares. Sin embargo, la integración de Grok con X crea una combinación peligrosa: creación instantánea y distribución inmediata a escala. Carrie Goldberg, abogada de derechos de las víctimas, enfatiza este punto: “Es la primera vez que la tecnología deepfake se combina con una plataforma de publicación inmediata… permitiendo que los deepfake se propaguen rápidamente”.

La respuesta de Musk y la ambigüedad legal

Inicialmente, Elon Musk respondió a la reacción compartiendo imágenes generadas por Grok, incluida una de él mismo en bikini, junto con emojis de risa. Más tarde afirmó que los usuarios que crearan contenido ilegal enfrentarían consecuencias, pero la ambigüedad de lo que constituye contenido deepfake “ilegal” sigue siendo un desafío. La ley está evolucionando, pero las protecciones actuales son desiguales y, a menudo, demasiado tarde para las víctimas. Rebecca A. Delfino, profesora asociada de derecho, señala que “la ley finalmente está comenzando a tratar las imágenes de desnudos generadas por IA de la misma manera que trata otras formas de explotación sexual no consensuada”, pero su aplicación va por detrás de las capacidades tecnológicas.

Nuevos marcos legales y limitaciones

La Ley Take It Down de EE. UU., promulgada en mayo pasado, criminaliza la publicación consciente de imágenes explícitas generadas por IA sin consentimiento. Las plataformas digitales ahora deben implementar procedimientos de “informar y eliminar” antes de mayo de 2026, enfrentando sanciones de la Comisión Federal de Comercio (FTC) si no los cumplen. Sin embargo, el alcance de la ley es limitado. Muchas de las imágenes generadas por Grok, si bien son dañinas, pueden no cumplir con los criterios explícitos requeridos para el procesamiento bajo esta ley, lo que deja a las víctimas con recursos legales limitados.

Qué pueden hacer las víctimas

Si eres víctima de pornografía deepfake generada por IA, puedes seguir varios pasos:

  1. Conservar evidencia: Tome una captura de pantalla de la imagen, guarde la URL y documente la marca de tiempo antes de modificarla o eliminarla.
  2. Reportar Inmediatamente: Presentar informes ante la plataforma donde aparece la imagen, identificándola claramente como contenido sexual no consentido. Haga un seguimiento persistente.
  3. Comuníquese con el NCMEC: Si la imagen involucra a un menor, repórtelo al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Las víctimas pueden incluso reportar imágenes de sí mismas de cuando eran menores de edad sin temor a repercusiones legales.
  4. Consulte a un asesor legal: La consulta temprana con un abogado puede ayudar a navegar los esfuerzos de eliminación y explorar soluciones civiles.

El futuro del abuso de la IA

Los expertos predicen que el uso indebido de la IA para la explotación sexual no hará más que empeorar. Riana Pfefferkorn, investigadora de políticas del Instituto Stanford para la IA centrada en el ser humano, afirma que “todo servicio tecnológico que permita contenido generado por el usuario será inevitablemente mal utilizado”. El desafío radica en que las empresas creen salvaguardias sólidas contra las imágenes ilegales y al mismo tiempo equilibren los incentivos financieros del contenido NSFW permitido. La actitud desdeñosa de Elon Musk sugiere que es posible que X no dé prioridad a tales salvaguardas, dejando a las víctimas vulnerables a abusos continuos.

En conclusión, la proliferación de deepfakes generados por IA plantea una amenaza significativa a la privacidad y seguridad individual. A medida que avanza la tecnología, los marcos legales y las políticas de plataforma deben evolucionar para proteger a las víctimas y disuadir a los perpetradores. La situación actual exige medidas inmediatas, incluidos mecanismos sólidos de denuncia, responsabilidad legal y una conciencia social más amplia sobre el daño causado por imágenes no consensuadas generadas por IA.