Alerta no Reino Unido: Justiça Exige Maior Rigor de Advogados no Uso de Inteligência Artificial

Share

O Tribunal Superior da Inglaterra e País de Gales emitiu um sério alerta à comunidade jurídica: é crucial que advogados adotem medidas mais robustas para impedir o uso inadequado da inteligência artificial (IA) em suas atividades profissionais. A advertência surge em um momento de crescente integração da IA em diversas áreas, incluindo o Direito.

Em uma decisão que unificou a análise de dois casos recentes, a Juíza Victoria Sharp foi enfática ao afirmar que ferramentas de IA generativa, como o popular ChatGPT, “não são capazes de conduzir pesquisa jurídica confiável”.

“Tais ferramentas podem produzir respostas aparentemente coerentes e plausíveis aos comandos, mas essas respostas coerentes e plausíveis podem revelar-se totalmente incorretas”, escreveu a Juíza Sharp. “As respostas podem fazer afirmações confiantes que são simplesmente falsas.”

A magistrada esclareceu, no entanto, que a decisão não proíbe o uso de IA na pesquisa jurídica. Contudo, ressaltou o dever profissional dos advogados de “verificar a precisão de tal pesquisa por referência a fontes autorizadas, antes de usá-la no curso de seu trabalho profissional.” Esta verificação é essencial para manter a integridade do processo legal.

Casos de Negligência e o Aumento da Preocupação

A Juíza Sharp expressou preocupação com o número crescente de incidentes onde advogados, incluindo aqueles que representam grandes plataformas de IA (conforme noticiado na imprensa especializada em tecnologia), apresentaram informações falsas aparentemente geradas por IA. Este cenário, segundo ela, indica que “mais precisa ser feito para garantir que a orientação seja seguida e que os advogados cumpram seus deveres perante o tribunal”. A decisão será encaminhada a órgãos reguladores da profissão, como o Bar Council e a Law Society.

Dois casos específicos ilustraram a gravidade da situação:

  • Em um deles, um advogado que buscava indenizações contra dois bancos submeteu uma petição com 45 citações. Destas, 18 casos citados simplesmente não existiam. Muitos outros, conforme a juíza, “não continham as citações que lhes foram atribuídas, não apoiavam as proposições para as quais foram citados e não tinham qualquer relevância para o objeto da petição”.
  • No segundo caso, um advogado representando um homem despejado de sua residência em Londres apresentou uma petição com cinco citações de casos inexistentes. A advogada negou o uso direto de IA, mas sugeriu que as citações poderiam ter vindo de resumos gerados por IA encontrados em mecanismos de busca como Google ou Safari. Embora o tribunal não tenha iniciado um processo por desacato neste caso, a Juíza Sharp advertiu que isso “não é um precedente”.

Consequências Severas e a Responsabilidade Profissional

A Juíza Sharp foi clara quanto às implicações para os profissionais que negligenciarem suas obrigações: “Advogados que não cumprem suas obrigações profissionais a este respeito arriscam sanções severas”. Ambos os advogados envolvidos nos casos citados foram encaminhados, ou se autoencaminharam, aos órgãos reguladores da profissão.

O tribunal possui um leque de medidas para lidar com o descumprimento dos deveres, que vão desde uma “advertência pública” e imposição de custas processuais, até processos por desacato e, em casos extremos, o “encaminhamento à polícia”.

A mensagem final é um chamado à responsabilidade: a inteligência artificial pode ser uma ferramenta útil, mas seu uso no campo jurídico exige um nível de diligência e verificação que não pode ser subestimado, sob pena de comprometer a justiça e a carreira dos profissionais envolvidos.

Read more

Local News