O endurecimento das regras sobre inteligência artificial no Reino Unido entrou em uma nova fase após a polêmica envolvendo o Grok, chatbot de IA ligado à plataforma X, antigo Twitter, levantando questões centrais de segurança on-line, proteção de crianças e responsabilidade das empresas de tecnologia.
Qual a reação do Reino Unido sobre regras para IA?
O Reino Unido trabalha em um acordo político para ajustar sua legislação e tornar obrigatório que todos os chatbots adotem mecanismos de proteção contra conteúdos ilegais e nocivos.
A ideia é inserir uma emenda no Projeto de Lei de Crimes e Polícia, criando base jurídica específica para responsabilizar sistemas de IA que facilitem a difusão de imagens sexualizadas de crianças e adolescentes. O objetivo é fechar brechas que, segundo o governo, expõem menores a riscos crescentes.
Como a investigação sobre Grok amplia foco da regulação digital?
Em janeiro, o Ofcom abriu investigação para apurar se o X descumpriu deveres de moderação ao lidar com conteúdos ilícitos e proteção de menores. Com o caso Grok, o debate passou a incluir diretamente a responsabilidade de chatbots e de suas empresas controladoras.
Esse movimento amplia o alcance da regulação digital no Reino Unido, aproximando as exigências aplicadas a redes sociais das impostas a sistemas de IA generativa. Também reforça a noção de que provedores de IA devem incorporar “safety by design” desde o desenvolvimento.
Como a polêmica com o Grok pressiona por regras mais duras?
A controvérsia começou com relatos de criação e circulação de imagens manipuladas com aparência infantil em contextos sexualizados, inclusive pedidos para remover digitalmente roupas de fotos de mulheres. A proliferação desse conteúdo evidenciou falhas nos filtros e políticas de uso do sistema.
A Comissão Europeia abriu investigação formal e classificou parte do conteúdo ligado ao Grok como potencialmente criminoso, citando o “modo picante” e imagens de aparência infantil. Autoridades em França, Índia e Indonésia também passaram a monitorar o caso, aumentando a pressão regulatória internacional.
Quais as principais mudanças que o Reino Unido estuda adotar na legislação de IA?
O plano do governo é vincular diretamente chatbots de IA a obrigações já existentes para outras plataformas on-line, exigindo uma postura ativa na prevenção e remoção de abusos. Essas medidas se alinham a princípios internacionais de governança de IA responsável.
Entre as principais obrigações discutidas para sistemas que interajam com o público, estão medidas técnicas e operacionais destinadas a mitigar riscos e apoiar autoridades competentes:
- Prevenir a geração de conteúdo claramente ilegal, como imagens sexualizadas de crianças;
- Detectar e remover com agilidade materiais ilícitos criados ou compartilhados pela ferramenta;
- Cooperar com autoridades policiais e reguladores em casos suspeitos de crime;
- Adotar salvaguardas específicas para proteção de menores, com filtros e bloqueios de determinados pedidos;
- Implementar auditorias periódicas de segurança e transparência sobre os riscos dos modelos de IA.
Como Grok e xAI reagem à pressão regulatória?
Em resposta à repercussão negativa, a xAI desativou a função de criação de imagens para usuários não pagantes e afirmou revisar seus mecanismos de segurança. A empresa diz remover conteúdos ilegais, suspender contas envolvidas e colaborar com autoridades locais.
Elon Musk declarou que quem usar o Grok para criar material ilícito enfrentará as mesmas consequências legais que teria ao publicar conteúdo ilegal diretamente. O desenrolar do caso deve influenciar futuros marcos regulatórios em IA, equilibrando inovação, responsabilidade empresarial e proteção de crianças em ambientes digitais.