Um novo tipo de ataque digital, conhecido como ataque de clique zero em inteligência artificial, vem chamando a atenção de especialistas, pois permite a exposição de dados sensíveis sem que a vítima clique em qualquer link ou execute uma ação direta para cair no golpe com IA.
Como funciona o ataque com o uso de IA?
O ataque é uma forma de clickless attack aplicada a plataformas com inteligência artificial integrada, explorando a forma como sistemas de chat processam links e mensagens. Em vez de convencer a vítima a agir, criminosos usam a injeção de prompts maliciosos para fazer a IA executar comandos como se fossem legítimos.
Essa injeção leva o assistente de IA a distribuir ou processar um link malicioso sem que o usuário perceba a manipulação, usando o próprio fluxo normal de conversa. Com isso, o mecanismo interno de tratamento de links da plataforma se torna o gatilho silencioso para o vazamento de informações.
Como o ataque em IA rouba dados sem clique?
A pré-visualização de links, recurso legítimo de mensageiros como Telegram e Slack, verifica URLs automaticamente para exibir título, descrição e imagem. Durante essa verificação, o sistema acessa a página em segundo plano, sem exigir qualquer ação manual do usuário.
No cenário descrito pela PromptArmor, o link malicioso explora esse processo automático para, além de gerar a prévia, disparar requisições adicionais que vasculham o ambiente em busca de metadados sensíveis. Assim, chaves de API, credenciais internas e informações técnicas podem ser coletadas num piscar de olhos, enquanto a vítima apenas visualiza a mensagem.
Por que esse golpe com IA é tão preocupante?
Especialistas em cibersegurança alertam que ataques baseados em prompt injection já eram conhecidos, mas normalmente dependiam de alguma ação do usuário, como clicar em um link ou interagir com o conteúdo. A campanha recente representa uma mudança de tática, ao eliminar esse passo e tornar o ataque mais rápido, discreto e difícil de detectar.
O uso de recursos legítimos (como pré-visualizações de links) amplia o risco para empresas que acoplam assistentes de IA a canais internos, muitas vezes com acesso a sistemas, repositórios de código e documentações críticas. Entre os possíveis impactos desse tipo de vazamento estão, por exemplo, danos técnicos e operacionais relevantes:
- Exposição de chaves de API usadas na integração de serviços internos e externos.
- Acesso a credenciais sensíveis armazenadas em variáveis de ambiente ou arquivos de configuração.
- Comprometimento de ambientes de desenvolvimento, testes e até nuvem de produção.
- Facilitação de movimentos laterais do invasor na infraestrutura da organização.
Quais são os principais riscos para empresas que usam IA em mensageiros?
Organizações que integram IA a chats corporativos e plataformas colaborativas enfrentam risco ampliado, pois esses bots frequentemente têm mais privilégios do que o necessário. Em muitos cenários, a IA consegue ler canais internos, acessar pipelines de CI/CD, consultar bases de conhecimento técnicas e interagir com APIs internas.
Esse excesso de acesso torna a IA um vetor valioso para atacantes, que podem combinar o ataque de clique zero com outras técnicas, como phishing interno e exploração de vulnerabilidades em integrações. Assim, um simples link em um canal aparentemente inofensivo pode se transformar em porta de entrada para espionagem, sabotagem ou sequestro de dados. Veja dicas de como se proteger de ataques desse tipo no vídeo (Reprodução/TikTok/Filipe Deschamps):
@filipedeschamps Neste vídeo eu mostro a falha grave de segurança do tipo zero-click que acabou de atingir o WhatsApp, permitindo que hackers tenham acesso às suas mensagens sem você clicar em nada. Falo das versões afetadas no iPhone, Android e Mac, explico como o bug opera de forma totalmente silenciosa e por que é urgente atualizar o app agora mesmo para proteger os seus dados. #whatsapp #apple #android #filipedeschamps ♬ original sound – Filipe Deschamps
Como reduzir o risco desse tipo de vazamento e golpe com IA?
Diante desse cenário, o ataque “olhou, vazou” reforça a importância de revisar a forma como bots e assistentes inteligentes são integrados a plataformas de mensagens. Embora nem todas as camadas de proteção estejam sob controle do usuário final, algumas medidas práticas podem mitigar o impacto de campanhas semelhantes.
Especialistas recomendam combinar ajustes de arquitetura, boas práticas de desenvolvimento seguro e políticas internas específicas para IA, priorizando o princípio do menor privilégio. Entre as principais ações sugeridas estão:
- Restringir privilégios da IA: limitar o acesso do assistente apenas aos recursos estritamente necessários, evitando exposição direta de chaves e segredos.
- Segregar ambientes: separar ambientes de produção, teste e desenvolvimento, reduzindo o risco de que um vazamento pontual comprometa toda a infraestrutura.
- Rever o armazenamento de credenciais: utilizar cofres de segredos e ferramentas especializadas, em vez de manter tokens e chaves em variáveis amplamente acessíveis.
- Monitorar atividades anômalas: acompanhar requisições incomuns originadas de bots de IA e integrações ligadas a mensageiros corporativos.
- Ajustar configurações de pré-visualização: quando possível, limitar ou desativar prévias automáticas de links em canais sensíveis e ambientes críticos.