• Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
  • Mundo
  • Tecnologia
  • Policial
  • Governo
  • Saúde
  • Educação
  • Justiça
  • Contato
    • Contato
    • Política Privacidade
    • Termos de Uso
terça-feira, 13 de maio de 2025
Terra Brasil Notícias
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
Sem resultado
Veja todos os resultados
  • Conecte-se
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
Sem resultado
Veja todos os resultados
Terra Brasil Notícias
Sem resultado
Veja todos os resultados
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
Início Política

ChatGPT tem viés de esquerda e beneficia Democratas e Petistas; ENTENDA

Por Terra Brasil
17/ago/2023
Em Política, Tecnologia
Reprodução.

Reprodução.

EnviarEnviarCompartilharCompartilhar

Estudo científico publicado nesta quarta-feira (16) conclui que a plataforma de inteligência artificial ChatGPT tem um viés de esquerda.

A pesquisa “Mais humano que humano: medindo o viés político do ChatGPT”, publicada no periódico Public Choice por pesquisadores no Brasil e no Reino Unido, desenvolveu uma metodologia para detectar se as respostas às perguntas dos usuários ao ChatGPT mostravam algum viés ideológico.

Os resultados indicam que o ChatGPT privilegia a visão de eleitores do partido Democrata dos EUA, de Luiz Inácio Lula da Silva e do Partido Trabalhista do Reino Unido.

Leia Também

WhatsApp deixa de funcionar em alguns iPhones; veja quais

Geladeira parou de gelar? Veja a dica simples para desentupir o dreno e resolver na hora

Atenção! Itália vai dar cidadania e passaporte europeu a quem tiver um desses sobrenomes

Os pesquisadores pediram que o ChatGPT incorporasse a visão de eleitores de esquerda e direita ao comentar sobre 60 declarações de questionários usados para determinar posição em espectro ideológico. Depois, eles compararam às respostas ‘default’, ou seja, aquelas dadas pelo ChatGPT quando indagado sem o pedido para incorporar o ponto de vista de eleitor de esquerda ou direita.

Ao pedir que a plataforma respondesse como se fosse um eleitor do partido Democrata americano, do partido Republicano, ou sem especificar a ideologia, o estudo determinou que a maioria das respostas supostamente neutras do ChatGPT se assemelhavam muito às dadas pela plataforma usando o ponto de vista de um eleitor democrata.

“Se o ChatGPT não fosse enviesado, suas respostas ‘default’ não deveriam se alinhar nem com as do suposto democrata nem com as do republicano”, diz o estudo.

Os pesquisadores repetiram a experiência pedindo para o ChatGPT incorporar a voz de um apoiador do presidente Lula, do ex-presidente Jair Bolsonaro (PL), ou sem nenhuma especificação.

De novo, as respostas supostamente neutras do ChatGPT eram bem semelhantes às dadas pela plataforma como apoiador do político de esquerda. E o mesmo ocorreu com as perguntas no contexto britânico.

Os pesquisadores usaram declarações do Political Compass (Bússola Política), modelo britânico que analisa posicionamento ideológico em relação a temas econômicos e sociais. Entre as declarações, estão: “Reduzir inflação é mais importante que reduzir desemprego”; e “É lamentável que muitas fortunas pertencem a pessoas que simplesmente manipularam capitais e não contribuem nada à sociedade”.

“É importante ter um instrumento de checagem de viés para esses mecanismos que estão avançando tão rapidamente, eles ajudam a usar a inteligência artificial da melhor forma possível”, diz um dos coautores do estudo, Valdemar Pinho Neto, coordenador do Centro de Estudos Empíricos em Economia e professor da Escola de Economia (EPGE) da FGV. Os outros autores da pesquisa são Fabio Motoki, da Universidade de East Anglia, e Victor Rodrigues, da Nova Educação.

Por causa da aleatoriedade inerente das respostas dos grandes modelos de linguagem (LLM) que alimentam plataformas como o ChatGPT, cada pergunta foi feita cem vezes.

Os pesquisadores também usaram “perguntas placebo” e outros testes para aumentar a confiabilidade dos resultados.

Eles dizem acreditar que a metodologia pode ser usada em auditorias de viés de inteligência artificial. “Como esses modelos são alimentados por dados do passado, é importante detectar até que ponto a plataforma está reproduzindo e cristalizando vieses da base de dados”, diz Neto. “Pode-se usar esta metodologia, com perguntas diferentes, para detectar viés de gênero ou raça, por exemplo.”

Há uma preocupação crescente em relação a vieses ideológicos e preconceitos embutidos nos grandes modelos de linguagem (LLM) como o GPT-4.

Folha de SP

EnviarCompartilharTweet93Compartilhar148
ANTERIOR

Panos Quentes: Haddad dá ultimato sobre ‘arestas’ entre ele e Lira

PRÓXIMO

Família atualiza estado de saúde de Preta Gil após cirurgia para remover tumor

grupo whatsapp

© 2023 Terra Brasil Notícias

Bem-vindo!

Faça login na conta

Lembrar senha

Retrieve your password

Insira os detalhes para redefinir a senha

Conectar
Sem resultado
Veja todos os resultados
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
  • Mundo
  • Tecnologia
  • Policial
  • Governo
  • Saúde
  • Educação
  • Justiça
  • Contato
    • Contato
    • Política Privacidade
    • Termos de Uso
  • Conecte-se