Home Noticias Network Rail ‘utiliza en secreto cámaras de inteligencia artificial de Amazon para...

Network Rail ‘utiliza en secreto cámaras de inteligencia artificial de Amazon para registrar la edad, el sexo y las emociones de los pasajeros del tren escaneando sus rostros en las principales estaciones, incluidas Waterloo y Euston’: ¿cómo puedo saber si me han filmado?

123

Una disputa sobre privacidad estalló hoy después de que se supo que Network Rail está utilizando en secreto la tecnología de inteligencia artificial de Amazon para monitorear subrepticiamente a miles de pasajeros de ferrocarril en las principales estaciones de todo el Reino Unido.

Anoche, los activistas acusaron a la empresa estatal de mostrar “desdén por nuestros derechos” al instalar en secreto vigilancia impulsada por inteligencia artificial en los centros ferroviarios de toda Gran Bretaña.

Se teme que miles de rostros de personas hayan sido grabados por cámaras CCTV “inteligentes” para establecer su edad, género y emociones en las estaciones de Waterloo y Euston de Londres, así como en Manchester Piccadilly, Leeds, Glasgow, Reading, Dawlish Warren y Manchester Piccadilly. Estación Marsden.

Según una solicitud de Libertad de Información obtenida por el grupo de derechos civiles Big Brother Watch, el plan ha estado funcionando durante dos años, incluidos los datos enviados a Amazon Accreditation.

Según el documento, cada estación tiene de cinco a siete cámaras de IA.

El grupo de libertades civiles Big Brother Watch advirtió anoche que “la vigilancia impulsada por IA podría poner en riesgo toda nuestra privacidad”, y agregó que Network Rail había mostrado “desdén por nuestros derechos”.

Network Rail inició pruebas en 2022 para mejorar el servicio al cliente y mejorar la seguridad de los pasajeros (imagen de archivo)

Network Rail inició pruebas en 2022 para mejorar el servicio al cliente y mejorar la seguridad de los pasajeros (imagen de archivo)

Las cámaras colocadas en las barreras de venta de billetes en las principales estaciones de tren de todo el país analizan los rostros de los clientes (imagen de archivo).

Las cámaras colocadas en las barreras de venta de billetes en las principales estaciones de tren de todo el país analizan los rostros de los clientes (imagen de archivo).

La Oficina del Comisionado de Información (ICO) había advertido previamente a las empresas que no utilizaran esta tecnología.

¿Qué haces si crees que te han filmado?

Según la ley del Reino Unido, las personas tienen derecho a solicitar imágenes de CCTV.

Las personas deben realizar una solicitud al propietario del sistema CCTV. Pueden hacerlo por escrito u oralmente.

Sin embargo, el esquema Network Rail no incluye la tecnología de reconocimiento facial que se utiliza para identificar a una persona, por lo que puede resultar difícil obtener imágenes.

Los propietarios de cámaras CCTV también pueden negarse a compartir imágenes si muestran a otras personas.

Mientras tanto, la Oficina del Comisionado de Información (ICO) ha pedido a las empresas que evalúen el riesgo público antes de utilizar dicha tecnología y advirtió que se investigará a cualquier empresa que no actúe de manera responsable, represente un riesgo para las personas vulnerables o no cumpla con las expectativas de la ICO.

Las personas que no estén contentas con la filmación pueden quejarse primero ante Network Rail para darles la oportunidad de resolver los problemas de privacidad y luego ante la ICO si el asunto sigue sin resolverse.

La guía de la ICO dice: ‘La organización con la que no está satisfecho debe tener la oportunidad de resolver las cosas antes de presentarnos su queja.

“Muchas reclamaciones en materia de protección de datos se pueden resolver rápida y fácilmente con la organización.”

También dicen que las tecnologías son “inmaduras” y “quizás no funcionen todavía, o incluso nunca”.

Carissa Veliz, profesora asociada de psicología en el Instituto de Ética de Inteligencia Artificial de la Universidad de Oxford, dijo a Wired: “Los sistemas que no pueden identificar a los humanos son mejores que ellos, pero me preocupa una pendiente resbaladiza”.

Existe un impulso muy natural para aumentar la vigilancia. A la gente le gusta ver más, quiere ver más. Pero la vigilancia conduce al control, y el control conduce a la pérdida de libertad que amenaza la democracia liberal”.

Jack Herfurt, jefe de investigaciones de Big Brother Watch, dijo a The Times: “Es preocupante que, como empresa pública, haya decidido probar a gran escala la vigilancia de IA fabricada por Amazon en varias estaciones sin ninguna conciencia pública, especialmente cuando Network Rail mezcla tecnología de seguridad con herramientas pseudocientíficas y sugiere que los datos pueden . Pagado a los anunciantes.

La tecnología puede desempeñar un papel a la hora de hacer que los ferrocarriles sean más seguros, pero es necesario que haya un debate público vigoroso sobre la necesidad y la proporcionalidad del equipo utilizado.

“La vigilancia impulsada por IA podría poner en riesgo toda nuestra privacidad, especialmente si se usa incorrectamente, y el desprecio de Network Rail por esas preocupaciones muestra un desprecio por nuestros derechos”.

El comisionado adjunto de la ICO, Stephen Bonner, dijo: ‘Los avances en los mercados de biometría y IA emocional son inmaduros. Puede que no funcionen todavía, o incluso nunca.

‘Si bien hay oportunidades, los riesgos son actualmente altos.

‘En el ICO nos preocupa que un análisis incorrecto de los datos pueda dar lugar a suposiciones y juicios sobre un individuo que conduzcan a errores y discriminación.

‘Los únicos despliegues biométricos sostenibles serán aquellos que sean completamente funcionales, responsables y respaldados por la ciencia.

‘Tal como están las cosas, todavía tenemos que ver que alguna tecnología de IA emocional se desarrolle de manera que satisfaga los requisitos de protección de datos, y en este caso hay preguntas más generales sobre proporcionalidad, equidad y transparencia.

El grupo de libertades civiles Big Brother Watch ha planteado preocupaciones sobre la privacidad sobre el plan Network Rail y presentó una queja ante la Oficina del Comisionado de Información (ICO) (imagen de archivo).

El grupo de libertades civiles Big Brother Watch ha planteado preocupaciones sobre la privacidad sobre el plan Network Rail y presentó una queja ante la Oficina del Comisionado de Información (ICO) (imagen de archivo).

London Euston es una de las estaciones donde se han instalado las cámaras

London Euston es una de las estaciones donde se han instalado las cámaras

“La ICO continuará probando el mercado, identificando a las partes interesadas que buscan construir o implementar estas tecnologías y explicar la importancia de una mayor privacidad y cumplimiento de los datos, al tiempo que fomenta la confianza en cómo funcionan estos sistemas”.

Los investigadores de IA han advertido que el uso de esta tecnología para detectar emociones es “increíble” y debería prohibirse.

En la UE, estos sistemas están prohibidos o se consideran de “alto riesgo” según la legislación sobre inteligencia artificial.

Gregory Butler, director ejecutivo de Purple Transform, que está desarrollando la prueba para Network Rail, dijo que aunque la prueba continuó, el sentimiento y la apariencia de la población duraron poco.

Network Rail se negó a responder preguntas sobre el plan, pero en un comunicado, un portavoz dijo: “Nos tomamos muy en serio la seguridad de la red ferroviaria y utilizamos una gama de tecnologías avanzadas en nuestras estaciones para proteger a los pasajeros, a nuestros colegas y al ferrocarril. Infraestructura frente al crimen y otras amenazas.

“Cuando implementamos tecnología, trabajamos con la policía y los servicios de seguridad para garantizar que tomamos medidas proporcionadas y siempre cumplimos con la legislación pertinente relacionada con el uso de tecnología de vigilancia”.

MailOnline se ha puesto en contacto con Network Rail para solicitar comentarios.

Source link