Com a crescente popularidade da inteligência artificial nos últimos meses, muitas pessoas temem que programas como o ChatGPT um dia os substituam no trabalho. Para um advogado de Nova York, esse pesadelo pode se tornar realidade mais cedo do que se pensava, mas não pelos motivos que se poderia imaginar. Segundo o The New York Times, o advogado Steven Schwartz, do escritório de advocacia Levidow, Levidow e Oberman, recentemente recorreu ao chatbot da OpenAI para ajudá-lo a escrever uma petição legal, com resultados desastrosos.
O escritório de Schwartz está processando a companhia aérea colombiana Avianca em nome de Roberto Mata, que alega ter sido ferido em um voo para o Aeroporto Internacional John F. Kennedy, em Nova York. Quando a companhia aérea pediu a um juiz federal para encerrar o caso, os advogados de Mata apresentaram uma petição de 10 páginas argumentando por que o processo deveria continuar. Infelizmente, ninguém que leu a petição conseguiu encontrar nenhuma das decisões judiciais citadas pelos advogados de Mata. Por quê? Porque o ChatGPT usou informações falsas.
Em uma declaração juramentada apresentada na quinta-feira, Schwartz disse que usou o chatbot para “complementar” sua pesquisa para o caso. Schwartz escreveu que não estava ciente da possibilidade de que o conteúdo do ChatGPT pudesse ser falso. Ele até compartilhou capturas de tela mostrando que havia perguntado ao ChatGPT se os casos que citou eram reais. O programa respondeu que sim, afirmando que as decisões poderiam ser encontradas em “bases jurídicas respeitáveis”, incluindo Westlaw e LexisNexis.
Schwartz disse que “lamenta profundamente” ter usado o ChatGPT “e nunca mais o fará no futuro sem verificação absoluta de sua autenticidade”. Se ele terá outra oportunidade de escrever uma petição legal é incerto. O juiz responsável pelo caso ordenou uma audiência em 8 de junho para discutir possíveis sanções para a “circunstância sem precedentes” criada pelas ações de Schwartz.
Em resumo, o caso de Schwartz destaca a importância de verificar as informações obtidas com o uso da inteligência artificial, especialmente em situações legais. Ainda há muito a aprender sobre como a IA pode ser usada de forma eficiente no campo jurídico, e é importante lembrar que a tecnologia não pode substituir completamente o trabalho humano. A experiência de Schwartz serve como um alerta para profissionais do direito que pretendem usar a IA como ferramenta para auxiliar em suas pesquisas, exigindo uma verificação cuidadosa das informações obtidas.