Um episódio recente envolvendo a empresa de inteligência artificial Anthropic acendeu mais um alerta sobre o uso de chatbots em contextos críticos como o sistema judicial. Um advogado representando a companhia admitiu, em um tribunal do Norte da Califórnia, o uso de uma citação incorreta fornecida pelo Claude, o chatbot de IA da própria Anthropic. Este incidente ocorreu durante a batalha legal em curso entre a Anthropic e um grupo de editoras musicais.
Segundo o documento judicial, divulgado inicialmente pela Bloomberg, o Claude “alucinou” a citação, apresentando “um título e autores imprecisos”. A Anthropic, em sua defesa, afirmou que a “verificação manual de citações” realizada por sua equipe jurídica não conseguiu detectar o erro, nem diversas outras imprecisões causadas pelas chamadas “alucinações” da IA.
A empresa pediu desculpas pelo ocorrido, classificando-o como um “erro honesto de citação e não uma fabricação de autoridade”.
Acusações e Contexto
No início desta semana, advogados representando a Universal Music Group e outras editoras musicais acusaram uma testemunha especialista da Anthropic – Olivia Chen, funcionária da empresa – de utilizar o Claude para citar artigos inexistentes em seu depoimento. Em resposta a estas alegações, a juíza federal Susan van Keulen ordenou que a Anthropic se manifestasse.
Este processo movido pelas editoras musicais é apenas um entre vários litígios entre detentores de direitos autorais e empresas de tecnologia, questionando o suposto uso indevido de suas obras para treinar ferramentas de IA generativa.
Um Padrão Preocupante no Uso de IA no Direito
Este não é um caso isolado de advogados utilizando inteligência artificial em processos judiciais e enfrentando consequências negativas. Recentemente, um juiz da Califórnia criticou duramente dois escritórios de advocacia por submeterem “pesquisas falsas geradas por IA”. Em janeiro, um advogado australiano foi flagrado usando o ChatGPT para preparar documentos judiciais, e o chatbot produziu citações defeituosas.
Apesar dos percalços, o entusiasmo e o investimento em IA para o setor jurídico não parecem diminuir. Startups que buscam automatizar o trabalho legal com IA generativa continuam a atrair grandes aportes financeiros. Um exemplo é a Harvey, que, segundo informações da Reuters, estaria em negociações para levantar mais de US$ 250 milhões, com uma avaliação de US$ 5 bilhões.
O caso da Anthropic ressalta a importância de uma verificação humana rigorosa e a necessidade de cautela ao integrar ferramentas de IA generativa em campos onde a precisão e a veracidade são fundamentais, como o direito.
