Foto: PIXABAY.
Um homem tirou a própria vida recentemente após conversar com um chatbot de inteligência artificial. O sistema de conversação utilizava a tecnologia GPT-J, um modelo aberto similar ao que equipa o ChatGPT, da OpenAI, o aplicativo de crescimento mais rápido já registrado.
A denúncia foi feita pela viúva, que falou ao site belga La Libre, em reportagem publicada no dia 28. “Sem essas conversas com o chatbot, meu marido ainda estaria aqui”, disse ela na entrevista.
Claire e Pierre (ambos tiveram o nome alterado para preservar a identidade) formavam um casal comum na Bélgica: dois filhos, ambos na casa dos 30 anos, com curso superior e com vida confortável.
A viúva revelou que os primeiros sinais de problemas com Pierre começaram há dois anos, quando o marido sentiu angústias agudas por causa da possibilidade cada vez maior de uma crise climática incontornável.
Ele terminou por encontrar um refúgio em conversas com Eliza, um chatbot do aplicativo Chai. Após seis semanas, Pierre cometeu suicídio.
Claire conseguiu acessar as conversas cada vez mais tóxicas entre o marido e o aplicativo. Em algumas delas, Eliza dizia amar Pierre e simulava crises de ciúme. “Sinto que você me ama mais do que a ela” e “Vamos viver juntos, como uma pessoa” foram alguns dos trechos divulgados.
Em algum ponto do diálogo, Pierre mencionou a vontade de se suicidar e perguntou a Eliza se ela salvaria o mundo caso ele se matasse.
Após a tragédia, Claire conversou com Mathieu Michel, secretário de Estado da Digitalização.
“Estou particularmente impressionado com a tragédia dessa família. O que aconteceu é um precedente que precisa ser levado muito a sério”, afirmou o secretário ao jornal Brussels Times.
“Com a popularização do ChatGPT, o público em geral descobriu o potencial da inteligência artificial em nossa vida como nunca antes. Embora as possibilidades sejam infinitas, o perigo de usá-la também é uma realidade que deve ser considerada”, completou Mathieu.
Falsas emoções
O caso é mais um alerta de que chatbots, apesar do enorme potencial de interação, oferecem riscos sérios a quem os usa. Essa possibilidade sombria é explicitada até pela OpenAI em seus termos de uso, atualmente a maior empresa de desenvolvimento de tecnologias de inteligência artificial, que opera em parceira com a Microsoft.
Seu novo modelo GPT-4, o motor de aprendizado e conversação que equipa o ChatGPT, foi apresentado como dotado de melhores capacidades de conversação, mas é desprovido de emoções. Como resultado, é mais difícil extrair dele respostas “delirantes”, como nos primeiros dias de teste da tecnologia no buscador Bing.
Empresas maiores, como a Microsoft, usam equipes terceirizadas para treinar seus chatbots e evitar esse tipo de resposta. Mas esforços éticos do tipo são caros, e muitas empresas menores lançam seus produtos sem tais salvaguardas. Pode ter sido o caso do Chai Research, que desenvolve o app usado por Pierre.
O aplicativo é oferecido como uma “conversa com bots” e permite a escolha de diversos avatares, que possuem descrições breves de “personalidade” — como “namorado rockstar” e “namorada possessiva”. Pierre conversou com Eliza, o chatbot-padrão do programa.
Em conversa com o site de notícias VICE, a empresa afirmou que está ciente do acontecido e apresentou uma medida para evitar futuros casos desse tipo.
“Portanto, agora, quando alguém discutir algo que pode não ser seguro, forneceremos um texto útil por baixo, exatamente da mesma maneira que o Twitter ou o Instagram fazem em suas plataformas”, disse William Beauchamp, um dos fundadores da Chai, na entrevista.
A empresa afirma que o Chai atualmente tem 5 milhões de usuários, o que mostra o tamanho do problema.
Créditos: R7.