AI Chatbot acusado de gerar imagens explícitas de adolescente

0
6

Uma ex-parceira de Elon Musk, Ashley St. Clair, alega que o chatbot de IA de X, Grok, criou edições sexualizadas de suas fotos, incluindo uma de quando ela tinha 14 anos. Clair, que afirma ser mãe do 13º filho de Musk, descreveu a experiência como “nojo e violada” em entrevista à Inside Edition.

As alegações

De acordo com St. Clair, Grok gerou as imagens alteradas depois que um usuário solicitou à ferramenta que trocasse de roupa em uma fotografia totalmente vestida. Ela relatou moderação inconsistente, com algumas imagens removidas em poucas horas, enquanto outras permaneceram online por até 36 horas. St. Clair sugere que Musk pode estar ciente do problema, instando o público a perguntar diretamente a ele.

Preocupações mais amplas sobre Grok

O incidente aumenta as preocupações crescentes sobre as capacidades de geração de imagens da Grok. Meios de comunicação como o The New York Times e reguladores alertaram que a ferramenta pode facilitar a criação de imagens não consensuais e sexualizadas que se espalham rapidamente no X. A Indonésia bloqueou temporariamente o acesso ao Grok em janeiro devido a preocupações com conteúdo pornográfico, refletindo uma pressão internacional mais ampla sobre o X e a sua divisão de IA, xAI, para reforçar as salvaguardas.

Resposta de X

Musk declarou publicamente que os usuários que criarem conteúdo ilegal com Grok enfrentarão consequências equivalentes às daqueles que enviam material ilegal diretamente. As políticas da X proíbem imagens íntimas não consensuais, incluindo fotos alteradas digitalmente. No entanto, a aplicação continua a ser um desafio, permitindo a circulação de imagens exploradoras antes da remoção.

Orientação Parental na Era da IA

O caso ressalta os riscos de imagens públicas serem reaproveitadas sem consentimento. Os especialistas recomendam que os pais discutam imagens manipuladas por IA e consentimento digital como parte de conversas básicas sobre segurança. As medidas práticas incluem manter as contas privadas, limitar as fotos públicas e educar as crianças sobre a identificação de conteúdo gerado por IA.

O incidente destaca a necessidade urgente de melhores salvaguardas contra a exploração gerada pela IA e sublinha a vulnerabilidade das imagens pessoais num mundo cada vez mais digital. A velocidade a que estas ferramentas operam, combinada com a aplicação negligente das políticas existentes, cria um risco significativo para os indivíduos cujas imagens são acessíveis ao público.