El Tribunal Superior de Inglaterra y Gales advirtió a los abogados sobre los peligros de confiar en herramientas de IA como ChatGPT para la investigación legal. La jueza Victoria Sharp dictaminó que estas herramientas generativas de IA no podían realizar investigaciones legales confiables.
El juez Sharp afirmó que las herramientas de IA podrían proporcionar respuestas aparentemente coherentes y plausibles, pero también ser completamente incorrectas. Ella aclaró que, si bien los abogados pueden usar IA en su investigación, tienen la obligación profesional de verificar la precisión de dicha investigación por referencia a fuentes autorizadas antes de usarla en su trabajo profesional.
Los comentarios del juez se produjeron en medio de crecientes preocupaciones sobre los casos en que los abogados citaron lo que parecían ser falsedades generadas por AI . La decisión de Dame Sharp citó dos casos recientes en los que se descubrió que los abogados citaron casos falsos generados por AI en los procedimientos judiciales. Ella dijo que su fallo se compartirá con organismos profesionales en el país, incluidos el Consejo de Abogados y la Sociedad de Derecho.
Abogados, Cuidado: los peligros de usar AI para redactar presentaciones sin verificación
En el caso de Al-Haroun, el Tribunal descubrió las asombrosas 45 citas que eran inexistentes o contenían citas inexactas. Sorprendentemente, estas citas falsas se generaron originalmente ... pic.twitter.com/cbgny1z7x1
- Lawpoint Uganda (@lawpointuganda) 7 de junio de 2025
El abogado Abid Hussain citó casos inexistentes en una demanda de $ 120 millones (£ 89 millones) con respecto a un presunto incumplimiento de un acuerdo de financiamiento con Qatar National Bank. Hussain presentó una presentación con 45 citas, de las cuales 18 no existían, mientras que muchos otros no contenían las citas que se les atribuyeron.
El cliente, Hamad Al-Haroun, se disculpó por engañar involuntariamente a la corte con datos falsos de herramientas de IA disponibles públicamente y dijo que era responsable en lugar de su abogado, Hussain. Pero Sharp dijo que era "extraordinario" que el abogado confiara en el cliente para la precisión de su investigación legal en lugar de al revés.
El juez Sharp, el dent de la división del banco del rey, dijo que había serias implicaciones para la administración de justicia y confianza pública en el sistema de justicia si la IA se usaba mal. Agregó que los abogados mal uso de AI podrían enfrentar la advertencia pública y la derivación a la policía. Pidió al Consejo de Abogados y a la Sociedad de Derecho que considere pasos para frenar el problema "como una cuestión de urgencia".
El juez también solicitó a los jefes de las cámaras de los abogados y a los socios gerentes de abogados que garantizaran que todos los abogados entendieran sus deberes profesionales y éticos al usar IA.
"Las respuestas pueden hacer afirmacionesdent que son simplemente falsas. Pueden citar fuentes que no existen. Pueden pretender citar pasajes de una fuente genuina que no aparecen en esa fuente".
- Juez Victoria Sharp , Presi dent de la División del Banco del Rey
Ian Jeffery, director ejecutivo de la Sociedad de Derecho de Inglaterra y Gales, dijo que el fallo dejó al descubierto los peligros de usar la IA en el trabajo legal. Agregó que las herramientas de IA se utilizaron cada vez más para apoyar la prestación de servicios legales. Aún así, el riesgo real de resultados incorrectos producidos por la IA generativa requiere que los abogados verifiquen, revisen y garanticen la precisión de su trabajo.
La abogada Sarah Forey citó cinco casos falsos en el reclamo de viviendas de un inquilino contra el distrito londinense de Haringey. Forey negó haber usado IA , pero Sharp dijo que no había proporcionado a la corte una explicación coherente de lo que sucedió.
El juez también advirtió que ofrecer material falso como genuino podría considerarse desacato al tribunal o, en "los casos más atroces", pervertir el curso de la justicia. Agregó que esto podría generar sanciones severas para los abogados que no cumplieron con sus obligaciones profesionales.
Sharp dijo que Forey mostró una preocupante falta de información, y agregó que el tribunal no aceptó que la falta de acceso a libros de texto o servicios de suscripción de ElectronIC dentro de las cámaras, si esa era la posición, proporcionaba algo más que mitigación marginal.
Ella afirmó que Forey podría haber verificado los casos que citó buscando en el sitio web de National Archives Caselaw o yendo a la Biblioteca de Derecho de su posada de la Corte. Sharp observó que Forey debe haber incluido deliberadamente citas falsas o usado IA a pesar de negarla en su declaración de testigos.
El mes pasado, el juez Ritchie dijo que, al citar cinco casos falsos, el comportamiento de Forey, entonces un alumno en 3 Bolt Court, y los abogados del Haringey Law Center en Londres fueron inadecuados, irrazonables e negligentes. También les ordenó a todos que pagaran costos desperdiciados.
Academia Cryptopolitan: Próximamente, una nueva forma de obtener ingresos pasivos con DeFi en 2025. Obtenga más información