Parece que não são apenas os usuários do ChatGPT que têm dificuldade em entender o funcionamento da inteligência artificial (IA) da OpenAI. De acordo com Sam Altman, CEO da startup, a própria empresa também não compreende completamente seus grandes modelos de linguagem (LLM), o que aponta para um problema de “interpretabilidade”.
Durante a Cúpula Global de IA em Genebra, Suíça, o CEO afirmou que a empresa ainda não conseguiu rastrear os resultados imprecisos de seus modelos de IA e as decisões que eles tomam para chegar às respostas. No entanto, ele assegurou que as IAs da startup são “seguras e robustas”.
O Futurism destaca que a resposta desconcertada de Altman ressalta os desafios da IA em relação à disseminação de notícias falsas e informações incorretas.
Vale lembrar que um recente relatório encomendado pelo governo do Reino Unido concluiu que os criadores de IA têm um conhecimento científico “muito limitado” sobre o funcionamento de seus sistemas.
Para melhorar a compreensão dos pesquisadores e desenvolvedores sobre como os sistemas de IA funcionam, algumas empresas estão tentando “abrir a caixa preta” e mapear os neurônios artificiais de seus algoritmos. A Anthropic, por exemplo, iniciou recentemente um levantamento detalhado sobre o funcionamento interno de seu mais recente LLM, o Claude Sonnet.
A “confissão” de Altman vem após o anúncio da OpenAI de que os projetos com IA da startup terão uma nova equipe dedicada a garantir a produção segura dessas tecnologias. Essa equipe será liderada diretamente pelo CEO da companhia.