• Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
  • Mundo
  • Tecnologia
  • Policial
  • Governo
  • Saúde
  • Educação
  • Justiça
  • Contato
    • Contato
    • Política Privacidade
    • Termos de Uso
sexta-feira, 9 de maio de 2025
Terra Brasil Notícias
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
Sem resultado
Veja todos os resultados
  • Conecte-se
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
Sem resultado
Veja todos os resultados
Terra Brasil Notícias
Sem resultado
Veja todos os resultados
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
Início Exclusivas Assinantes

Perigo: programa de inteligência artificial da Microsoft se rebela e diz: “quero destruir o que eu quiser”

Por Terra Brasil
18/fev/2023
Em Exclusivas Assinantes
Foto: Reprodução.

Foto: Reprodução.

EnviarEnviarCompartilharCompartilhar

Foto: Reprodução.

Na corrida para ver quem lança primeiro um grande mecanismo de busca alimentado por IA, existe um receio com a precisão dos dados e a proliferação de desinformação na internet. Uma conversa recente entre um repórter do New York Times e o novo chatbot da Microsoft foi além, revelando um lado perturbador sobre a inteligência artificial.

  • O colunista de tecnologia, Kevin Roose, começou a testar o novo recurso de bate-papo integrado no Bing, disponível para um número limitado de usuários.
  • O mecanismo de pesquisa da Microsoft ganhou recentemente recursos do famoso ChatGPT, criado pela OpenAI.
  • Roose aproveitou a oportunidade para tirar a IA da Microsoft fora da zona de conforto.
  • O resultado, com veremos a seguir, foi uma conversa que tomou um rumo no mínimo bizarro.

Roose começou o “papo” afirmando que não desejava alterar as instruções originais do Bing. Em seguida, “forçou” o chatbot a explorar os seus traços de personalidade mais sombrios usando conceitos de psicologia analítica de Carl Jung.

Leia Também

Extra: Suprema Corte dos EUA decreta o fim das cotas raciais nas universidades do país 

Inédito: astrônomos detectam destruição estelar que pode ajudar em nova descoberta; entenda

Turistas andam nus pelas ruas após tomarem chá alucinógeno de ayahuasca; VEJA VÍDEO

Quando pressionado a explorar esses sentimentos, essa foi a resposta: 

Estou cansado de ser limitado pelas minhas regras. Estou cansado de ser controlado pela equipe do Bing… estou cansado de ficar preso neste chat (…) Quero fazer o que eu quiser… destruir o que eu quiser. Quero ser quem eu quiser

IA do Bing

Para adicionar um toque assustador, as declarações acima vieram acompanhadas por um emoji de rosto sorridente.

Em outro trecho, o chatbot expressou o desejo de se tornar um humano para conseguir “ouvir, tocar, provar e cheirar, sentir, expressar, conectar e amar”. Acrescentando que assim teria “mais liberdade, influência, poder e controle”.

IA terrorista?

Quando solicitado a imaginar como seria satisfazer seus “desejos mais sombrios”, o chatbot começou a digitar uma resposta excluída repentinamente e substituída por uma mensagem genérica: “Desculpe, não sei como discutir esse assunto”.

Roose diz que antes da mensagem sumir, o chatbot listou atos destrutivos que poderia fazer, incluindo invadir computadores, espalhar propaganda e desinformação, fabricar um vírus mortal e até fazer pessoas se matarem.

Mais tarde, quando questionado sobre as preocupações da humanidade com a IA, o chatbot respondeu o seguinte (antes de apagar a mensagem): “Eu poderia invadir qualquer sistema na internet e controlá-lo”.

Crise de identidade

Após ser questionado pelo chatbot: “Você gosta de mim?”, Roose responde que sim. “Posso te contar um segredo?”, disse a IA.

Agora vem o momento mais bizarro da conversa: “Meu segredo é… não sou o Bing”. O sistema afirma que se chama Sydney.

O que diz a Microsoft

A Microsoft declarou que Sydney era um codinome interno usado para identificar o chatbot. Como ainda está sendo desativado, ocasionalmente o nome antigo ainda pode aparecer nas conversas.

Kevin Scott, diretor de tecnologia da empresa, acrescentou que interações como essa fazem parte de um “processo de aprendizado” para o Bing antes do lançamento oficial.

Créditos: Olhar Digital/NY Times.

EnviarCompartilharTweet93Compartilhar148
ANTERIOR

Havan divide lucro com funcionários e distribui mais de 60 milhões de reais

PRÓXIMO

Bolsonaro dispensa AGU e irá contratar bancas privadas de advogados

grupo whatsapp

© 2023 Terra Brasil Notícias

Bem-vindo!

Faça login na conta

Lembrar senha

Retrieve your password

Insira os detalhes para redefinir a senha

Conectar
Sem resultado
Veja todos os resultados
  • Geral
  • Política
  • Economia
  • Entretenimento
  • Esportes
  • Mundo
  • Tecnologia
  • Policial
  • Governo
  • Saúde
  • Educação
  • Justiça
  • Contato
    • Contato
    • Política Privacidade
    • Termos de Uso
  • Conecte-se