Una disputa sobre privacidad estalló hoy después de que se supo que Network Rail está utilizando en secreto la tecnología de inteligencia artificial de Amazon para monitorear subrepticiamente a miles de pasajeros de ferrocarril en las principales estaciones de todo el Reino Unido.
Anoche, los activistas acusaron a la empresa estatal de mostrar “desdén por nuestros derechos” al instalar en secreto vigilancia impulsada por inteligencia artificial en los centros ferroviarios de toda Gran Bretaña.
Se teme que miles de rostros de personas hayan sido grabados por cámaras CCTV “inteligentes” para establecer su edad, género y emociones en las estaciones de Waterloo y Euston de Londres, así como en Manchester Piccadilly, Leeds, Glasgow, Reading, Dawlish Warren y Manchester Piccadilly. Estación Marsden.
Según una solicitud de Libertad de Información obtenida por el grupo de derechos civiles Big Brother Watch, el plan ha estado funcionando durante dos años, incluidos los datos enviados a Amazon Accreditation.
Según el documento, cada estación tiene de cinco a siete cámaras de IA.
El grupo de libertades civiles Big Brother Watch advirtió anoche que “la vigilancia impulsada por IA podría poner en riesgo toda nuestra privacidad”, y agregó que Network Rail había mostrado “desdén por nuestros derechos”.
Network Rail inició pruebas en 2022 para mejorar el servicio al cliente y mejorar la seguridad de los pasajeros (imagen de archivo)
Las cámaras colocadas en las barreras de venta de billetes en las principales estaciones de tren de todo el país analizan los rostros de los clientes (imagen de archivo).
La Oficina del Comisionado de Información (ICO) había advertido previamente a las empresas que no utilizaran esta tecnología.
También dicen que las tecnologías son “inmaduras” y “quizás no funcionen todavía, o incluso nunca”.
Carissa Veliz, profesora asociada de psicología en el Instituto de Ética de Inteligencia Artificial de la Universidad de Oxford, dijo a Wired: “Los sistemas que no pueden identificar a los humanos son mejores que ellos, pero me preocupa una pendiente resbaladiza”.
Existe un impulso muy natural para aumentar la vigilancia. A la gente le gusta ver más, quiere ver más. Pero la vigilancia conduce al control, y el control conduce a la pérdida de libertad que amenaza la democracia liberal”.
Jack Herfurt, jefe de investigaciones de Big Brother Watch, dijo a The Times: “Es preocupante que, como empresa pública, haya decidido probar a gran escala la vigilancia de IA fabricada por Amazon en varias estaciones sin ninguna conciencia pública, especialmente cuando Network Rail mezcla tecnología de seguridad con herramientas pseudocientíficas y sugiere que los datos pueden . Pagado a los anunciantes.
La tecnología puede desempeñar un papel a la hora de hacer que los ferrocarriles sean más seguros, pero es necesario que haya un debate público vigoroso sobre la necesidad y la proporcionalidad del equipo utilizado.
“La vigilancia impulsada por IA podría poner en riesgo toda nuestra privacidad, especialmente si se usa incorrectamente, y el desprecio de Network Rail por esas preocupaciones muestra un desprecio por nuestros derechos”.
El comisionado adjunto de la ICO, Stephen Bonner, dijo: ‘Los avances en los mercados de biometría y IA emocional son inmaduros. Puede que no funcionen todavía, o incluso nunca.
‘Si bien hay oportunidades, los riesgos son actualmente altos.
‘En el ICO nos preocupa que un análisis incorrecto de los datos pueda dar lugar a suposiciones y juicios sobre un individuo que conduzcan a errores y discriminación.
‘Los únicos despliegues biométricos sostenibles serán aquellos que sean completamente funcionales, responsables y respaldados por la ciencia.
‘Tal como están las cosas, todavía tenemos que ver que alguna tecnología de IA emocional se desarrolle de manera que satisfaga los requisitos de protección de datos, y en este caso hay preguntas más generales sobre proporcionalidad, equidad y transparencia.
El grupo de libertades civiles Big Brother Watch ha planteado preocupaciones sobre la privacidad sobre el plan Network Rail y presentó una queja ante la Oficina del Comisionado de Información (ICO) (imagen de archivo).
London Euston es una de las estaciones donde se han instalado las cámaras
“La ICO continuará probando el mercado, identificando a las partes interesadas que buscan construir o implementar estas tecnologías y explicar la importancia de una mayor privacidad y cumplimiento de los datos, al tiempo que fomenta la confianza en cómo funcionan estos sistemas”.
Los investigadores de IA han advertido que el uso de esta tecnología para detectar emociones es “increíble” y debería prohibirse.
En la UE, estos sistemas están prohibidos o se consideran de “alto riesgo” según la legislación sobre inteligencia artificial.
Gregory Butler, director ejecutivo de Purple Transform, que está desarrollando la prueba para Network Rail, dijo que aunque la prueba continuó, el sentimiento y la apariencia de la población duraron poco.
Network Rail se negó a responder preguntas sobre el plan, pero en un comunicado, un portavoz dijo: “Nos tomamos muy en serio la seguridad de la red ferroviaria y utilizamos una gama de tecnologías avanzadas en nuestras estaciones para proteger a los pasajeros, a nuestros colegas y al ferrocarril. Infraestructura frente al crimen y otras amenazas.
“Cuando implementamos tecnología, trabajamos con la policía y los servicios de seguridad para garantizar que tomamos medidas proporcionadas y siempre cumplimos con la legislación pertinente relacionada con el uso de tecnología de vigilancia”.
MailOnline se ha puesto en contacto con Network Rail para solicitar comentarios.









