La IA vuelve a ocupar el puesto de testigo.
En comentarios hechos durante las audiencias preliminares, el juez de distrito estadounidense ZS Rakoff, con sede en Manhattan, dictaminó que los documentos preparados por una herramienta de inteligencia artificial y luego compartidos con un abogado son admisibles en los tribunales, ya que existen fuera del privilegio abogado-cliente, informó. Ley 360.
Necesitamos hablar sobre ese comercial de Mike Tyson en el Super Bowl
La decisión está relacionada con el caso del director ejecutivo del beneficiario, Bradley Hepner, acusado de cometer 150 millones de dólares en fraude de valores y transferencias electrónicas entre 2018 y 2021. Era un ejecutivo de servicios financieros. Acusado en noviembre. Antes de su arresto, Hepner utilizó el chatbot Claude de Anthropic para crear 31 documentos que luego compartió con su abogado defensor, evidencia que luego fue incautada por los investigadores. Los fiscales federales dicen que los documentos son presa fácil y deben considerarse un “producto del trabajo” en lugar de una estratagema legal secreta. También afirman que las propias políticas de uso de la herramienta de IA no garantizan la privacidad.
Velocidad de la luz triturable
La defensa argumentó que, aunque no fueron elaborados por abogados, los documentos contenían información basada en conversaciones con representantes legales que debía ser protegida. Además, al implicar al equipo de defensa en los documentos, la evidencia podría crear un conflicto de intereses entre Hepner y su propia representación, agregaron. Rakoff dijo que no veía fundamento para el reclamo de privilegio entre abogado y cliente, pero estuvo de acuerdo en que la evidencia podría haber resultado en un conflicto entre testigo y abogado y la anulación del juicio.
Los comentarios resaltan un conflicto creciente entre los desarrolladores de IA, los defensores de la privacidad y los defensores de la seguridad.
Este tweet no está disponible actualmente. Se está cargando o eliminando.
Con IA ejecutiva Sam Altman, director ejecutivo de OpenAITanto los abogados como los terapeutas han abogado por ampliar el privilegio del cliente, lo que protege las comunicaciones con los chatbots de IA del descubrimiento judicial. Altman sostiene que, en particular, Aumento del uso personal de la IA Los asistentes, incluidos aquellos diseñados para terapia o asesoramiento de salud, deben reconsiderar qué tipos de comunicaciones son legalmente privilegiadas. Ante numerosas demandas por infracción de derechos de autor y el impacto de la IA en la salud mental y la seguridad de los jóvenes, los desarrolladores de IA han luchado por mantener las conversaciones de los chatbots detrás de cajas negras, aunque muchos han otorgado a las agencias gubernamentales permiso expreso para ver los registros de chat.
Mientras tanto, los datos del historial de chat son esenciales para las acusaciones de mala conducta y fallas de seguridad entre los grandes actores de la IA. Al mismo tiempo, los observadores de la privacidad han expresado su preocupación por la extensa recopilación y almacenamiento de datos por parte de las herramientas de IA, lo que ha llevado a los desarrolladores de IA a introducir medidas para reducir el almacenamiento del historial de chat y permitir a los usuarios utilizar imitadores de IA.











