Khari Johnson, Calters escribió
El buen tribunal de California parecía ser el más grande que se emitió en Ai Banawat y lo trajo Ampolla El resumen inaugural del abogado ha realizado 23 citas de casos citados. También menciona que numerosos tribunales estatales y federales han enfrentado abogados para citar una autoridad legal falsa.
“Así que expresamos esta opinión como una advertencia”, continuó. “En pocas palabras, no hay cotización de ninguna breve, solicitante, velocidad o cualquier otra investigación presentada en un tribunal, si el generador es proporcionado por AI o cualquier otra fuente, la solicitud que el abogado responsable de presentar no ha sido leído y verificado personalmente”.
La opinión emitida hace 10 días en el Tribunal de 2º Distrito de California es un claro ejemplo de por qué las autoridades legales del estado están sacudiendo el uso de IA en el poder judicial. Hace dos semanas, el Consejo Judicial del Estado Juez y los trabajadores judiciales emitieron pautas necesarias Ya sea el generador de IA para prohibir o adoptar un generador antes del 15 de diciembre para adoptar la política de uso de AI. Mientras tanto, la Asociación de Abogados de California está considerando si la solicitud de la Corte Suprema de California el mes pasado está considerando el fortalecimiento de su código de conducta para varios tipos de IA.
El abogado de la Región de Los Ángeles fue multado la semana pasada, Amir Mostafavi le dijo al tribunal que no leyó el texto del modelo AI antes de presentar la apelación en julio de 2021, unos meses después de que el OpenAi Chattgp fuera habilitado para la OpenAia. Se está aprobando el bar en el examenSegún la opinión, un panel de tres jueces lo multó para presentar apelaciones irrespetuosas, violó el tribunal, citando casos falsos y perdiendo el tiempo de la corte y el desperdicio de contribuyentes.
Mostafvi dijo a los calcatorios que escribió la aplicación y luego usó el chatzp para tratar de mejorarla. Dijo que no sabía que agregaría citas al caso o haría las cosas.
Él piensa que no es realista esperar que los abogados dejen de usar la IA. Se ha convertido en una herramienta importante al igual que las bases de datos en línea reemplazaron originalmente las bibliotecas de derecho y, a menos que los sistemas de IA dejaran de halucinear los datos falsos, aconsejó a estos abogados que usaron IA que procedan con precaución utilizando la IA.
“Mientras tanto, vamos a estar dañados, vamos a compensar algo, algunos de nosotros seremos provocados”, dijo. “Espero que este ejemplo ayude a otros que no lean en el hoyo, estoy pagando el precio”.
Las sanciones emitidas por Mostafaavi son las multas más caras emitidas por un tribunal estatal de California y una de las multas más altas emitidas en el abogado de IA utilizando IA y una clase enseñada en una escuela de negocios en París. Él Pista Originalmente, el ejemplo de atornistas citando casos falsos en Australia, Canadá, Estados Unidos y el Reino Unido.
En un caso ampliamente publicitado en mayo Dos leyes han ordenado pagar a la organización Sugerencias de defensa de gastos relacionados con el uso de “investigación falsa expuesta a AI-expuesta” y $ 31,100 como una tarifa para el tribunal. El juez describe el sentimiento en este veredicto, diciendo que citaron elementos falsos en órdenes casi judiciales y dijo: “Atternis necesita resistir para confirmar que este atajo simple no se hunde”.
Charlotin cree que el tribunal y el público deberían esperar un aumento significativo en este caso en el futuro. Cuando comenzó a rastrear los tribunales de los tribunales involucrados en la IA y los casos falsos a principios de este año, enfrentó varios casos al mes. Ahora ve algunos casos al día. Los modelos de lenguaje mayor describen las mentiras con confianza como verdaderas, especialmente cuando no hay información útil.
“Cuanto más difícil sea el argumento legal, más tendrá la tendencia al modelo de tener alucinaciones, porque intentarán hacerte feliz”, dijo. “Hay un sesgo de confirmación pateado”.
Sí Análisis de mayo de 2024 La Universidad de Stanford Reaglab ha demostrado que aunque tres de los cuatro abogados planean usar la IA del generador en su práctica, algunas de las alucinaciones de forma de IA en una de las tres preguntas. Identificación de material falso citado en la presentación legal Los modelos pueden ser más ajustados a medida que crece en tamañoEl
Otro rastreador En los casos en que los abogados han mencionado la autoridad legal no existente debido al uso de la IA, 12 estos casos nacionales han sido identificados en California y más de 600 en todo el país. Nicholas Santis, un estudiante de derecho de la Facultad de Derecho de la Universidad de Capital en Ohio, dijo que se espera que la innovación de IA aumente en el futuro cercano a medida que se supere el abogado de innovación.
Jenny Adresac, quien dirigió el proyecto Tracker, dijo que esperaba que esta tendencia fuera peor porque todavía se enfrenta a abogados que no saben que la IA produce o cree que los equipos de tecnología legal pueden eliminar todos los elementos falsos o falsos producidos por modelos de idiomas.
“Creo que si nosotros (abogados) entendemos los conceptos básicos de la tecnología, veremos la disminución”, dijo.
Al igual que Charlotin, sospecha que el tribunal federal tiene más casos producidos por AI en la presentación del tribunal estatal, pero la falta de método de presentación estándar hace que sea difícil de verificar. Dijo que a menudo enfrenta casos falsos entre el abogado estresante adicional o aquellos a quienes les gusta representarse en el tribunal de familia.
Sospecha que el número de argumentos presentados por los abogados que usan IA y casos falsos continuarán citando, pero agregó que solo los abogados no solo están involucrados en la práctica. En las últimas semanas, ha inscrito tres Ensayo Citando autoridades legales falsas en su decisión.
Teniendo en cuenta cómo tratar los generadores de IA y los casos falsos en California, WDRESEC dijo que necesitan una suspensión temporal de un enfoque a otros estados, como los abogados que pueden considerar o considerar sus requisitos para comprender mejor cómo usar la IA moralmente. Enseñe a los estudiantes cómo pueden evitar cometer los mismos erroresEl
El Coderector del Instituto de Tecnología, Derecho y Políticas de UCLA, Mark McKena, elogió una multa contra Mostafvi. Él piensa que el problema empeorará antes de mejorar “, porque la ley está abarrotada sin pensar en su uso en la facultad de derecho y las organizaciones no gubernamentales.
El profesor de la Facultad de Derecho de la UCLA, Andrew Selbost, señala que los jueces que trabajan en los jueces son el recién graduado de la facultad de derecho, y los estudiantes han bombardeado el mensaje de que deben usar IA o regresar. Académicos y otros profesionales Informe FIENTO de estrés similarEl
“Está en toda nuestra garganta”, dijo. “Se está empujando a las organizaciones y escuelas y en muchos lugares y aún no nos hemos involucrado con las consecuencias”.
Publicado originalmente:











