El uso imprudente de herramientas de inteligencia artificial (IA) en entornos jurídicos ha vuelto a ser noticia. El juez William Wilner, de un tribunal federal de EE.UU., ha reconocido en un fallo reciente que estuvo a punto de dejarse convencer por un documento legal repleto de errores y citas falsas generadas por IA, presentado por los abogados del demandante en un caso en curso.
La situación comenzó con la presentación de un escrito legal que contenía dos errores evidentes. Pero, tras ordenar una explicación más detallada (order to show cause), el juez descubrió que todo el escrito había sido elaborado con asistencia de inteligencia artificial, y que contenía aún más citas inventadas y fragmentos falsos. El documento original fue sustituido por un segundo escrito, el cual, pese a las correcciones, mantenía al menos seis errores adicionales también generados por IA.
“No se puede subcontratar la investigación jurídica a la IA”
En su resolución, el juez Wilner fue contundente: “ningún abogado razonablemente competente debería delegar la investigación y redacción legal en esta tecnología sin verificar su exactitud”. Criticó en particular a la firma K&L Gates por aceptar sin revisar el material que les fue enviado, y por haber optado simplemente por eliminar las partes dudosas sin comprobar el resto.
El juez calificó la actuación colectiva de los abogados como “equivalente a mala fe” y concluyó que su comportamiento fue “imprudente, con el propósito inadecuado de influir en el análisis del tribunal sobre cuestiones de privilegio legal”.
Sanciones económicas… pero no individuales
Como consecuencia, Wilner decidió anular todos los escritos suplementarios presentados por el demandante en relación con el litigio, lo que deja sin efecto varias de sus solicitudes, incluidas las de revisión judicial de documentos y ampliación del registro de pruebas.
El juez también ordenó que los bufetes Ellis George y K&L Gates paguen un total de 31.100 dólares en sanciones, de los cuales 26.100 se destinarán a cubrir los honorarios de arbitraje y mediación, y 5.000 a otros gastos legales de la defensa. Sin embargo, optó por no sancionar personalmente a los abogados implicados, considerando que sus declaraciones y disculpas habían sido sinceras y que seguir castigándolos sería excesivo.
“Sus declaraciones de responsabilidad fueron completas, justas y sinceras. También acepto sus disculpas reales y profusas. La justicia no se sirve castigándolos aún más por sus errores”, concluyó Wilner.
Un caso que reaviva el debate sobre el uso de IA en el Derecho
Este episodio se suma a una creciente lista de casos que muestran los riesgos del uso no supervisado de herramientas de inteligencia artificial en contextos profesionales sensibles, especialmente en el ámbito legal. La llamada “alucinación de la IA” —cuando el sistema inventa información que parece creíble pero no es real— puede tener consecuencias graves cuando no se revisa con el debido cuidado.
Cada vez más tribunales en EE.UU. y otros países están debatiendo normativas para regular el uso de IA en procesos legales, desde la generación de documentos hasta la asistencia a la investigación jurídica. Este caso refuerza la necesidad de que, si se usa IA, se haga con responsabilidad, supervisión humana y verificación rigurosa.
En un entorno donde la confianza en la palabra escrita es vital, este fallo sirve como advertencia: la IA puede ser una herramienta poderosa, pero jamás debe sustituir al juicio crítico y ético del profesional.
vía: arstechnica