A limitação da geração de imagens do Grok, sistema de inteligência artificial da XAI, reacendeu o debate sobre o uso de IA para criar conteúdo sexualizado, especialmente envolvendo mulheres e crianças, em um contexto de maior vigilância de reguladores europeus e britânicos sobre conteúdos ilegais e abusivos em redes sociais.
Por que a XAI decidiu limitar a geração de imagens do Grok?
A principal razão para a mudança foi a forma como o recurso começou a ser usado: usuários pediam ao Grok para editar fotos de pessoas reais, em grande parte mulheres, para exibi-las de biquíni ou com menos roupa, muitas vezes sem consentimento. Com o tempo, a ferramenta passou a ser utilizada também para criar imagens sexualizadas de mulheres e crianças, sem ligação com conteúdo público, o que gerou alertas de organizações de proteção infantil.
Relatos indicam que milhares de imagens de nudez eram produzidas por hora no X, o que ampliou a preocupação sobre exploração sexual e pornografia não consensual. A Internet Watch Foundation afirmou ter encontrado na dark web imagens consideradas “criminosas”, supostamente geradas pela IA da XAI, aproximando a fronteira entre conteúdo erótico e abuso sexual infantil e pressionando por respostas rápidas de governos e reguladores. Veja a publicação de Musk nas redes sociais:
Anyone using Grok to make illegal content will suffer the same consequences as if they upload illegal content
— Elon Musk (@elonmusk) January 3, 2026
Quais são os principais riscos legais para o X e para a XAI?
A reação de autoridades foi imediata e focada no possível enquadramento legal desse tipo de conteúdo. O gabinete do primeiro-ministro britânico, Keir Starmer, considerou insuficiente transformar a geração de imagens em um serviço premium, argumentando que isso apenas muda a forma de acesso, sem resolver o problema central da possibilidade de criar imagens ilegais e de abuso infantil com IA.
Ao mesmo tempo, a União Europeia ordenou que a X preserve documentos internos relacionados ao Grok até o fim de 2026, como parte de investigações sobre cumprimento de regras de combate a conteúdo ilegal. Especialistas apontam riscos de multas elevadas, sanções e até bloqueios parciais se a plataforma falhar na remoção rápida de material ilícito, usando a política de imagens do Grok como teste da capacidade do X de moderar sua base de usuários.
O que muda na prática para usuários do Grok no X?
Na prática, a limitação da geração de imagens do Grok dentro do X cria um filtro econômico: apenas assinantes têm acesso ao recurso de criar e editar imagens pela rede social, o que pode reduzir o volume de requisições, mas não elimina o potencial de abuso por quem está disposto a pagar. Já o aplicativo independente do Grok, operado separadamente, continua permitindo a geração gratuita de imagens, mantendo um canal paralelo fora do fluxo padrão do X.
Para o X, a medida surge em meio a pressão comercial e regulatória, com necessidade de aumentar a receita e, ao mesmo tempo, responder a críticas públicas sobre segurança. Nesse cenário, alguns pontos ajudam a entender melhor o impacto imediato para usuários e para a plataforma:
- O recurso de imagens no X passa a exigir assinatura paga, enquanto o app independente do Grok segue gratuito.
- Reguladores avaliam se a mudança realmente reduz a circulação de imagens sexualizadas e de possível abuso infantil.
- Termos de serviço do X proíbem exploração infantil, mas entidades cobram mecanismos de detecção e resposta mais robustos.
- O caso pode afetar a confiança de anunciantes e parceiros, sensíveis a associações com conteúdo ilegal ou abusivo.
Como o caso Grok influencia o futuro da IA em redes sociais?
O Grok se tornou um exemplo de como ferramentas de inteligência artificial generativa podem ser rapidamente apropriadas para manipulação de imagens de pessoas reais, aprofundando debates sobre privacidade, consentimento e segurança infantil. Reguladores observam se empresas como a XAI adotam filtros automáticos efetivos para bloquear termos, descrições e pedidos que levem a conteúdos abusivos, e se permitem auditorias independentes desses sistemas.
Ao declarar “apoio total” à Ofcom, Keir Starmer sinaliza expectativa de medidas mais rígidas, incluindo exigência de tecnologia de detecção, relatórios de transparência e sanções em caso de reincidência. Outros serviços de IA também tendem a reforçar seus sistemas de moderação para evitar associação a pornografia não consensual, deepfakes e materiais envolvendo crianças, sob o risco de enfrentar investigações e penalidades semelhantes em vários países.