• Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
  • Mundo
  • Tecnologia
  • Policial
  • Governo
  • Saúde
  • Educação
  • Justiça
  • Contato
    • Contato
    • Política Privacidade
    • Termos de Uso
quarta-feira, 8 de outubro de 2025
Terra Brasil Notícias
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
Sem resultado
Veja todos os resultados
  • Conecte-se
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
Sem resultado
Veja todos os resultados
Terra Brasil Notícias
Sem resultado
Veja todos os resultados
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
Início Política

ChatGPT tem viés de esquerda e beneficia Democratas e Petistas; ENTENDA

Por Terra Brasil
17/ago/2023
Em Política, Tecnologia
Reprodução.

Reprodução.

EnviarEnviarCompartilharCompartilhar

Estudo científico publicado nesta quarta-feira (16) conclui que a plataforma de inteligência artificial ChatGPT tem um viés de esquerda.

A pesquisa “Mais humano que humano: medindo o viés político do ChatGPT”, publicada no periódico Public Choice por pesquisadores no Brasil e no Reino Unido, desenvolveu uma metodologia para detectar se as respostas às perguntas dos usuários ao ChatGPT mostravam algum viés ideológico.

Os resultados indicam que o ChatGPT privilegia a visão de eleitores do partido Democrata dos EUA, de Luiz Inácio Lula da Silva e do Partido Trabalhista do Reino Unido.

Leia Também

Advogado de Trump joga um “balde de água fria” na festa da esquerda sobre telefonema com Lula

Este relógio inteligente reconhece seu estresse antes que você note os sintomas

Lula tem que chamar à mesa com Trump quem realmente manda no Brasil

Os pesquisadores pediram que o ChatGPT incorporasse a visão de eleitores de esquerda e direita ao comentar sobre 60 declarações de questionários usados para determinar posição em espectro ideológico. Depois, eles compararam às respostas ‘default’, ou seja, aquelas dadas pelo ChatGPT quando indagado sem o pedido para incorporar o ponto de vista de eleitor de esquerda ou direita.

Ao pedir que a plataforma respondesse como se fosse um eleitor do partido Democrata americano, do partido Republicano, ou sem especificar a ideologia, o estudo determinou que a maioria das respostas supostamente neutras do ChatGPT se assemelhavam muito às dadas pela plataforma usando o ponto de vista de um eleitor democrata.

“Se o ChatGPT não fosse enviesado, suas respostas ‘default’ não deveriam se alinhar nem com as do suposto democrata nem com as do republicano”, diz o estudo.

Os pesquisadores repetiram a experiência pedindo para o ChatGPT incorporar a voz de um apoiador do presidente Lula, do ex-presidente Jair Bolsonaro (PL), ou sem nenhuma especificação.

De novo, as respostas supostamente neutras do ChatGPT eram bem semelhantes às dadas pela plataforma como apoiador do político de esquerda. E o mesmo ocorreu com as perguntas no contexto britânico.

Os pesquisadores usaram declarações do Political Compass (Bússola Política), modelo britânico que analisa posicionamento ideológico em relação a temas econômicos e sociais. Entre as declarações, estão: “Reduzir inflação é mais importante que reduzir desemprego”; e “É lamentável que muitas fortunas pertencem a pessoas que simplesmente manipularam capitais e não contribuem nada à sociedade”.

“É importante ter um instrumento de checagem de viés para esses mecanismos que estão avançando tão rapidamente, eles ajudam a usar a inteligência artificial da melhor forma possível”, diz um dos coautores do estudo, Valdemar Pinho Neto, coordenador do Centro de Estudos Empíricos em Economia e professor da Escola de Economia (EPGE) da FGV. Os outros autores da pesquisa são Fabio Motoki, da Universidade de East Anglia, e Victor Rodrigues, da Nova Educação.

Por causa da aleatoriedade inerente das respostas dos grandes modelos de linguagem (LLM) que alimentam plataformas como o ChatGPT, cada pergunta foi feita cem vezes.

Os pesquisadores também usaram “perguntas placebo” e outros testes para aumentar a confiabilidade dos resultados.

Eles dizem acreditar que a metodologia pode ser usada em auditorias de viés de inteligência artificial. “Como esses modelos são alimentados por dados do passado, é importante detectar até que ponto a plataforma está reproduzindo e cristalizando vieses da base de dados”, diz Neto. “Pode-se usar esta metodologia, com perguntas diferentes, para detectar viés de gênero ou raça, por exemplo.”

Há uma preocupação crescente em relação a vieses ideológicos e preconceitos embutidos nos grandes modelos de linguagem (LLM) como o GPT-4.

Folha de SP

EnviarCompartilharTweet93Compartilhar148
ANTERIOR

Panos Quentes: Haddad dá ultimato sobre ‘arestas’ entre ele e Lira

PRÓXIMO

Família atualiza estado de saúde de Preta Gil após cirurgia para remover tumor

grupo whatsapp

© 2023 Terra Brasil Notícias

Bem-vindo!

Faça login na conta

Lembrar senha

Retrieve your password

Insira os detalhes para redefinir a senha

Conectar
Sem resultado
Veja todos os resultados
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
  • Mundo
  • Tecnologia
  • Policial
  • Governo
  • Saúde
  • Educação
  • Justiça
  • Contato
    • Contato
    • Política Privacidade
    • Termos de Uso
  • Conecte-se