¿La IA es capaz de engañar a la justicia? Un caso demuestra que hay posibilidades

¿La IA es capaz de engañar a la justicia? Un caso demuestra que hay posibilidades

Foto: NotiPress

Una situación sin precedentes puso en alerta al sistema judicial estadounidense: una herramienta de inteligencia artificial estuvo a punto de inducir a error a un juez federal con citas legales falsas. El incidente ocurrió en el Tribunal de Distrito de Estados Unidos para el Distrito Central de California, donde el magistrado federal retirado Michael Wilner, actuando como perito judicial, reconoció haber estado "casi" a punto de incluir dichas citas en una orden judicial.

 

El caso involucra a los representantes legales de Jackie Lacey, exfiscal de distrito del condado de Los Ángeles, quien demandó a la aseguradora State Farm. La controversia surgió cuando los abogados del demandante presentaron un escrito complementario que contenía múltiples referencias jurídicas inventadas, generadas mediante inteligencia artificial.

 

Wilner, en una orden emitida el 5 de mayo, expresó: "Sin rodeos, el uso de IA por parte del demandante me indujo a error". Señaló que leyó el escrito, quedó intrigado por las citas, y procedió a verificar las fuentes, solo para descubrir que no existían. "Es aterrador", añadió.

 

El documento en cuestión fue elaborado inicialmente por Trent Copeland, abogado de Ellis George LLP, quien utilizó herramientas de IA para generar un esquema legal. Este material fue luego compartido con la firma K&L Gates, cuyos abogados lo incorporaron sin revisión a la presentación final. Ningún abogado ni miembro del personal revisó la investigación antes de presentar el escrito, afirmó Wilner, citando declaraciones juradas.

 

Por su parte, el juez identificó al menos nueve citas incorrectas de un total de 27 en el escrito de diez páginas, incluyendo referencias a decisiones judiciales inexistentes y descripciones imprecisas de fallos reales. Pese a una advertencia inicial por parte del juez, la segunda versión del documento aún contenía errores derivados de la IA.

 

Ante el hallazgo, Wilner concluyó que los abogados "actuaron colectivamente de mala fe" y criticó duramente la delegación no revelada de la investigación legal a una inteligencia artificial. En sus palabras: "ningún abogado razonablemente competente debería subcontratar la investigación y la redacción a esta tecnología, sobre todo sin intentar verificar la exactitud de dicho material".

 

Si bien aceptó las disculpas de los abogados, el juez impuso sanciones económicas a las firmas involucradas. K&L Gates y Ellis George LLP deberán pagar 26,100 dólares como compensación a la defensa, y otros 5,000 por costos adicionales. No se impusieron sanciones personales a los abogados, aunque sus errores resultaron en la anulación de los escritos presentados y el rechazo de todas las solicitudes procesales asociadas.

 

Este caso se suma a otros incidentes recientes en los que abogados presentaron documentos con referencias inventadas por IA. El experto en derecho Eugene Volokh subrayó que ambas firmas tienen reputaciones destacadas, y calificó el incidente como atípico en su historial profesional.

 

La resolución de Wilner finaliza con una advertencia clara al sector legal: la investigación jurídica no puede ser externalizada a herramientas que aún carecen de fiabilidad plena. Las implicancias de este hecho marcan un precedente sobre los límites y riesgos del uso de tecnologías emergentes en el ámbito judicial. (NotiPress)

Notas Relacionadas