Foto: Reprodução/Xinhua/Mao Siqian.
Segundo um relatório divulgado nesta quarta-feira, hackers apoiados pelos governos da Rússia, China e Irã têm utilizado ferramentas de inteligência artificial da OpenAI, uma empresa com colaboração da Microsoft, para aprimorar suas habilidades e enganar alvos.
A Microsoft revelou em seu relatório que grupos de hackers ligados à inteligência militar russa, à Guarda Revolucionária do Irã e aos governos chinês e norte-coreano estavam tentando melhorar suas campanhas de hacking utilizando grandes modelos de linguagem.
Esses modelos de inteligência artificial, comumente conhecidos como IA, são capazes de gerar respostas que se assemelham às humanas, sendo alimentados com grandes volumes de texto.
A empresa anunciou a descoberta ao proibir o acesso a grupos de hackers apoiados pelo Estado que utilizam seus produtos de IA.
“Independentemente de haver ou não violações legais ou de termos de serviço, simplesmente não queremos que esses atores identificados – que rastreamos e sabemos que representam ameaças de várias formas – tenham acesso a essa tecnologia”, disse Tom Burt, vice-presidente de segurança do cliente da Microsoft, à Reuters, em uma entrevista antes da divulgação do relatório.
Até o momento, autoridades diplomáticas russas, norte-coreanas e iranianas não responderam às solicitações de comentários sobre as alegações.
O porta-voz da embaixada chinesa nos Estados Unidos, Liu Pengyu, manifestou-se contrário às “difamações e acusações infundadas contra a China”, defendendo uma implantação segura e controlada da tecnologia de IA para “melhorar o bem-estar comum da humanidade”.
A revelação de que hackers apoiados pelo Estado estão utilizando ferramentas de IA para aprimorar suas capacidades de espionagem provavelmente reforçará as preocupações sobre o potencial de vigilância e abuso da tecnologia.
“Este é um dos primeiros, se não o primeiro, caso em que uma empresa de IA se manifesta e discute publicamente como agentes de ameaças à segurança cibernética estão utilizando tecnologias de IA”, disse Bob Rotsted, líder de inteligência de ameaças à segurança cibernética na OpenAI.
Tanto a OpenAI quanto a Microsoft descreveram o uso feito pelos hackers de suas ferramentas de IA como “estágio inicial” e “incremental”. Burt afirmou que nenhum dos dois observou avanços significativos por parte dos espiões cibernéticos.
Com informações da Folha de S. Paulo.