Foto: Getty Images
Steven A. Schwartz usou a inteligência artificial para preparar um documento contra a companhia aérea Avianca, mas o robô compartilhou casos que não existem e Schwartz os apresentou no tribunal.
Um advogado está sendo duramente criticado após desenvolver um processo judicial contra a Avianca contendo mentiras fornecidas pelo ChatGPT.
Steven A. Schwartz disse que usou a IA para “complementar” o documento e que só depois descobriu que a tecnologia forneceu “meia dúzia de casos inexistentes”. O advogado também disse que “desconhecia a possibilidade de que o conteúdo [do ChatGPT] pudesse ser falso”.
Segundo o jornal “The New York Times”, o juiz que acompanha o processo disse que foi apresentada “uma circunstância sem precedentes”, com um documento repleto de “citações e decisões judiciais falsas”.
Ele ordenou uma audiência para avaliar possíveis sanções contra Schwartz.
Entenda o caso
O cliente de Schwartz, Roberto Mata, está processando a companhia aérea após ficar ferido por um carrinho de metal que atingiu o seu joelho. Segundo Roberto, o caso ocorreu em agosto de 2019, durante um voo que ia de El Salvador para Nova York.
A Avianca solicitou o arquivamento do processo, mas o advogado recorreu, apresentando um documento com argumentações para o caso prosseguir.
No material de 10 páginas, Schwartz cita processos como Martinez vs Delta Air Lines, Varghese vs China Southern Airlines e Zicherman vs Korean Air Lines.
Só que nem os advogados da Avianca e nem o próprio juiz conseguiram encontrar essas decisões. Todos são inexistentes, criados pelo ChatGPT.
Ainda segundo o “NYT”, Schwartz alegou que não tinha a intenção de enganar o tribunal ou a Avianca e que ainda pediu confirmação ao ChatGPT para saber se os casos eram reais. O robô, por sua vez, disse “sim”.
Com a repercussão, o advogado lamentou a situação e disse que “nunca mais fará [a consulta] sem verificação absoluta de sua autenticidade”.
G1