Home Técnica El abogado canadiense usó AI para redactar casos falsos, confronta el desprecio

El abogado canadiense usó AI para redactar casos falsos, confronta el desprecio

138

Caer

Resumen AI generado, la sala de redacción se revisa.

Un juez canadiense criticó a un abogado por el uso de IA en documentos legales.

Jisuh Li presentó un factum con referencia al caso ficticio en el tribunal.

El juez ordenó que Li fuera justificado por qué no enfrentaría la queja de desobediencia.

Un juez canadiense ha criticado a un abogado cuando usó herramientas de inteligencia artificial (IA), como el Chatzipi fue capturado después de ser arrestado para redactar documentos legales completos en un caso que no existe como sus argumentos. Se le ha ordenado al abogado, conocido como Jisu Li, que explique por qué no debe ser juzgado por “desobediencia en el tribunal” durante la “Audiencia de la razón”.

El uso de la IA de la Sra. Li se identificó cuando estuvo presente frente al juez de la Corte Superior de Ontario, Fred Myers, el 25 de abril, representando a su cliente Hannah Coke, en un informe National Post. Presentó un documento para que se incluyeron los enlaces a casos no existentes, se acusaron a casos reales y el juez Myers, “probablemente alucinaciones de IA”.

La Sra. Lee estaba discutiendo un patrimonio complejo asociado con una persona muerta y una propuesta sobre derecho de familia. Si el juez usó la IA para crear un factum, la Sra. Lee dijo que su oficina generalmente no lo usa, pero debe “ser verificado con su empleado”.

El juez Meyers escribe: “Parece que el factum de la señorita Lee fue creado por AI y antes de presentar el Factum y confiar en él en el tribunal, probablemente respaldó las leyes o las propuestas de la ley que se sometió a la corte y luego respaldó verbalmente que no pudo probar”.

Luego, el juez asistió a la escuela con una representación leal sobre la responsabilidad de un abogado en el tribunal, el cliente y el sistema judicial y le dijo que no confundiera al tribunal.

Él escribió: “La Sra. Lee violó sus deberes que podrían ser la cantidad de desprecio ante el tribunal”, escribió.

También lea | AI Gone Wild: el botit de los carros de autos ‘alucina’ la nueva política de usuarios ‘alucina’

Exención

Este no es el primer ejemplo si los abogados son atrapados utilizando AI para crear documentos legales. El mes pasado, un juez federal lo llevó a usar la IA para la escritura legal breve en un caso de difamación de abogados que representan a Mike Lindel, CEO de mi almohada.

Según el juez de distrito Nina Wang, hubo 30 citas defectuosas en resumen, que contienen las preguntas y citas incorrectas en el caso imaginario. Ordenó al abogado Christopher Kachoref y Jennifer Demaster que mostraran la razón por la cual el tribunal no aprobaría a los acusados, agencias de derecho y abogados independientes.

Ambos abogados también han recibido instrucciones de explicar por qué no deben mencionarse en sus actividades disciplinadas para violar el comportamiento profesional.


Source link