O Supremo Tribunal da Inglaterra e o País de Gales alertou advogados sobre os perigos de confiar em ferramentas de IA como o ChatGPT para pesquisas jurídicas. A juíza Victoria Sharp decidiu que essas ferramentas generativas de IA não podiam realizar pesquisas legais confiáveis.
O juiz Sharp alegou que as ferramentas de IA poderiam fornecer respostas aparentemente coerentes e plausíveis, mas também estar totalmente incorreto. Ela esclareceu que, embora os advogados possam usar a IA em sua pesquisa, eles têm uma obrigação profissional de verificar a precisão de tal pesquisa por referência a fontes autorizadas antes de usá -la em seu trabalho profissional.
As observações do juiz ocorreram em meio a crescentes preocupações sobre os casos em que os advogados citaram o que parecia ser falsidades geradas pela IA . A decisão de Dame Sharp citou dois casos recentes em que os advogados citaram casos falsos gerados pela IA em processos judiciais. Ela disse que sua decisão será compartilhada com órgãos profissionais no país, incluindo o Conselho de Advogados e a Sociedade de Direito.
Advogados, cuidado: os perigos de usar a IA para redigir envios sem verificação
No caso de Al-Haroun, o tribunal descobriu 45 citações impressionantes que eram inexistentes ou continham citações imprecisas. Surpreendentemente, essas citações falsas foram originalmente geradas… pic.twitter.com/cbgny1z7x1
- LawPoint Uganda (@LawPointuganda) 7 de junho de 2025
O advogado Abid Hussain citou casos inexistentes em um processo de US $ 120 milhões (£ 89 milhões) sobre uma suposta violação de um contrato de financiamento com o Banco Nacional do Catar. Hussain enviou um registro com 45 citações, das quais 18 não existiam, enquanto muitos outros não continham as citações que lhes foram atribuídas.
O cliente, Hamad al-Haroun, pediu desculpas por enganar involuntariamente o tribunal com dados falsos de ferramentas de IA disponíveis ao público e disse que era responsável e não seu advogado, Hussain. Mas Sharp disse que era "extraordinário" que o advogado confiasse no cliente para a precisão de sua pesquisa legal e não o contrário.
O juiz Sharp, o dent da divisão de bancada do rei, disse que houve sérias implicações para a administração da justiça e a confiança do público no sistema de justiça, se a IA foi mal utilizada. Ela acrescentou que os advogados que usam a IA mal podiam enfrentar a advertência pública e o encaminhamento à polícia. Ela pediu ao Conselho de Advogados e à Sociedade de Direito que considerassem medidas para conter o problema "por uma questão de urgência".
O juiz também pediu aos chefes de câmaras dos advogados e parceiros gerenciais de advogados para garantir que todos os advogados entendessem seus deveres profissionais e éticos ao usar a IA.
"As respostas podem fazer afirmaçõesdent que são simplesmente falsas. Eles podem citar fontes que não existem. Eles podem pretender citar passagens de uma fonte genuína que não aparece nessa fonte".
- Juiz Victoria Sharp , dent da divisão de bancada do rei
Ian Jeffery, o diretor executivo da Sociedade de Direito da Inglaterra e do País de Gales, disse que a decisão revelou os perigos de usar a IA em trabalho jurídico. Ele acrescentou que as ferramentas de IA eram cada vez mais usadas para apoiar a prestação de serviços legais. Ainda assim, o risco real de saídas incorretas produzidas pela IA generativa exige que os advogados verifiquem, revisem e garantam a precisão de seu trabalho.
A advogada Sarah Forey citou cinco casos falsos em uma reivindicação de inquilino contra o bairro de Haringey de Londres. Forey negou o uso de IA , mas Sharp disse que não havia fornecido ao tribunal uma explicação coerente para o que aconteceu.
O juiz também alertou que oferecer um material falso como genuíno pode ser considerado desprezo ao tribunal ou, nos "casos mais flagrantes", pervertendo o curso da justiça. Ela acrescentou que isso poderia levar a severas penalidades para advogados que não cumpriram suas obrigações profissionais.
Sharp disse que Forey mostrou uma preocupante falta de insight, acrescentando que o tribunal não aceitou que a falta de acesso a livros didáticos ou serviços de assinatura ElectronIC nas câmaras, se essa fosse a posição, forneceu algo mais que a mitigação marginal.
Ela afirmou que Forey poderia ter verificado os casos que citou pesquisando no site da National Archives Caselaw ou indo para a biblioteca de direito de sua pousada no tribunal. Sharp observou que Forey deve ter incluído deliberadamente citações falsas ou usada IA, apesar de negar em sua declaração de testemunha.
No mês passado, o juiz Ritchie disse que, ao citar cinco casos falsos, o comportamento de Felicioned, depois um aluno em 3 Bolt Court e os advogados do Haringey Law Center em Londres eram impróprios, irracionais e negligentes. Ele também ordenou que todos eles pagassem custos desperdiçados.
Academia Cryptopolitan: em breve - uma nova maneira de obter renda passiva com DeFi em 2025. Saiba mais