Home Noticias Se descubre que Barrister utilizó inteligencia artificial para prepararse para la audiencia...

Se descubre que Barrister utilizó inteligencia artificial para prepararse para la audiencia citando un caso “ficticio” | Inteligencia artificial (IA)

2

Un abogado de inmigración vio a un juez utilizando IA para hacer su trabajo en audiencias en el tribunal citando casos “completamente ficticios” o “completamente irrelevantes”.

Según un tribunal, Chowdhury Rahman fue descubierto utilizando software como ChatGPT para preparar su investigación legal. Rahman no sólo utilizó la IA para preparar su trabajo, sino que “no pudo realizar ninguna comprobación adecuada de la precisión después”.

El juez del Tribunal Superior Mark Blundell dijo que Rahman incluso trató de ocultar el hecho de que estaba usando IA y haciendo perder el tiempo al tribunal. Blundell dijo que está considerando denunciar a Rahman ante la Junta de Normas del Colegio de Abogados. The Guardian se ha puesto en contacto con la firma de Rahman para solicitar comentarios.

El asunto salió a la luz en el caso de dos hermanas hondureñas que solicitaron asilo diciendo que estaban siendo atacadas por una banda criminal en su país. Rahman representó a las hermanas, de 29 y 35 años. El caso llegó a un tribunal superior.

Blundell rechazó el argumento de Rahman y añadió que “nada de lo que el señor Rahman ha dicho oralmente o por escrito establece un error de derecho por parte del juez y la apelación debe ser desestimada”.

Luego, en un fallo inusual, Blundell dijo en una posdata que había “cuestiones importantes” sobre la base de la apelación que tenía ante sí.

Dijo que en los documentos de Rahman se citaron 12 autoridades, pero cuando leyó los fundamentos, notó que “algunas de estas autoridades no existían y otras no apoyaban las proposiciones de derecho por las cuales fueron citadas en los fundamentos”.

En su fallo, enumeró 10 de estos casos y determinó “lo que dijo el señor Rahman sobre esos casos reales o imaginarios”.

Blundell dijo: “El señor Rahman parecía no saber nada de ninguna de las autoridades en apelación que supuestamente citó en julio de este año. Claramente no deseaba llevarme a ninguna de esas decisiones en su presentación.

“Algunas de las decisiones no existían. Ninguna decisión apoyó la propuesta establecida por la ley”.

Blundell dijo que las presentaciones de Rahman, quien dijo que utilizó “varios sitios web” para realizar su investigación, eran, por lo tanto, engañosas.

Blundell dijo: “La explicación más obvia es… que los motivos de apelación fueron redactados total o parcialmente por inteligencia artificial generativa como ChatGPT.

“Debo señalar que uno de los casos citados sobre la base del Sr. Rahman… recientemente ha sido presentado erróneamente por ChatGPT en apoyo de un argumento similar”.

Rahman dijo al juez que los errores sobre el terreno se debían “a su estilo de redacción” y reconoció que pudo haber habido cierta “confusión y ambigüedad” en sus presentaciones.

Blundell dice: “Los problemas que he detallado anteriormente no son cuestiones de estilo de redacción. Las autoridades que fueron citadas sobre el terreno o no existían o no apoyaban los argumentos en que se basaban”.

Añadió: “Es muy probable, en mi opinión, que el señor Rahman haya utilizado inteligencia artificial generativa para formar la base de la apelación en este caso y que haya tratado de ocultarme ese hecho durante la audiencia.

“Incluso si el Sr. Rahman piensa, por cualquier razón, que estos casos de alguna manera respaldan los argumentos que está tratando de presentar, no puede justificar las citas enteramente ficticias.

“A mi juicio, la única posibilidad realista es que el señor Rahman se haya basado sustancialmente en el general AI para formular la base y haya intentado ocultar ese hecho cuando se exploraron las dificultades con él en la audiencia”.

El fallo del juez se emitió en septiembre y se publicó el martes.

Enlace fuente