Home Smartwatch Un modelo matemático cognitivo puede ayudar a proteger la privacidad y garantizar...

Un modelo matemático cognitivo puede ayudar a proteger la privacidad y garantizar el uso seguro de la IA.

92

Las herramientas de inteligencia artificial se utilizan cada vez más para rastrearnos y monitorearnos en línea y en persona, pero su efectividad conlleva grandes riesgos. Los científicos informáticos del Oxford Internet Institute, el Imperial College London y la U Selvain han desarrollado un nuevo modelo matemático que podría ayudar a los reguladores a comprender mejor los riesgos que la IA representa para las personas y proteger su privacidad. Los resultados se publican Comunicaciones de la naturaleza.

Por primera vez, este método proporciona un marco científico sólido para evaluar técnicas de identificación, especialmente cuando se trata de datos a gran escala. Esto puede incluir, por ejemplo, monitorear cómo el código publicitario y los rastreadores invisibles rastrean a los usuarios en línea a partir de pequeños fragmentos de información, como zonas horarias o configuraciones del navegador (una técnica conocida como “huellas digitales del navegador”).

El autor principal, el Dr. Luke Rocher, investigador principal del Oxford Internet Institute de la Universidad de Oxford, dijo: “Utilizamos nuestro método como un enfoque novedoso para ayudar a evaluar el riesgo de reidentificación en la divulgación de datos, pero también para diagnósticos avanzados”. En entornos críticos como hospitales, ayuda humanitaria o control fronterizo, las técnicas de identificación son increíblemente avanzadas y la necesidad de una identificación precisa y confiable es primordial “.

Este método se basa en el campo de la estadística bayesiana para aprender qué tan identificables son los individuos a pequeña escala y proporciona una precisión de identificación para poblaciones grandes hasta 10 veces mejor que las heurísticas y métodos generales anteriores. Esto le da a la metodología un poder único para predecir cómo funcionarán a escala las diferentes técnicas de reconocimiento de datos en diferentes aplicaciones y entornos de comportamiento. Esto puede ayudar a explicar por qué algunas técnicas de identificación de IA funcionan con extrema precisión cuando se prueban en estudios de casos pequeños, pero luego identifican erróneamente a las personas en situaciones del mundo real.

Estos hallazgos son extremadamente oportunos dados los desafíos que enfrentan el anonimato y la privacidad debido al rápido aumento de las técnicas de identificación basadas en IA. Por ejemplo, se están probando herramientas de inteligencia artificial para reconocer automáticamente a los humanos por su voz en la banca en línea, sus ojos en la entrega de ayuda humanitaria o su rostro en las fuerzas del orden.

Según los investigadores, el nuevo enfoque podría ayudar a las organizaciones a lograr un mejor equilibrio entre los beneficios de las tecnologías de inteligencia artificial y la necesidad de proteger la información personal de las personas, haciendo que las interacciones diarias con la tecnología sean más seguras. Su método de prueba permite identificar posibles debilidades y áreas de mejora antes de la implementación a gran escala, lo cual es esencial para mantener la seguridad y la precisión.

El profesor asociado coautor Yves-Alexandre de Montjoye (Instituto de Ciencia de Datos, Imperial College, Londres) dijo: “Nuestra nueva ley de escala proporciona, por primera vez, un modelo matemático teórico que predice cómo funcionarán las técnicas de reconocimiento a escala. La escalabilidad de la identificación es esencial para evaluar los riesgos que plantean estas técnicas de reidentificación, incluido garantizar el cumplimiento de las leyes modernas de protección de datos en todo el mundo”.

El Dr. Luc Rocher concluyó: “Creemos que este trabajo es un paso importante hacia el desarrollo de métodos teóricos para evaluar los riesgos que plantean las técnicas de IA cada vez más sofisticadas y la naturaleza de la identificación de rastros humanos en línea”. Gran ayuda para investigadores y responsables de la protección de datos y otros profesionales que quieran encontrar un equilibrio entre el intercambio de datos y la protección de datos para pacientes, participantes y ciudadanos”.

Source link