Los escáneres de multitudes en los Juegos de París avivan el temor a la vigilancia por IA

12 de junio, 2024 | 05.43

LONDRES, 12 jun (Fundación Thomson Reuters) - Los planes franceses de utilizar inteligencia artificial (IA) para escanear a los miles de atletas, entrenadores y espectadores que acudirán a París con motivo de los Juegos Olímpicos constituyen una forma de vigilancia sigilosa, según denuncian grupos de defensa de los derechos humanos.

En los últimos meses, las autoridades francesas han probado sistemas de vigilancia por inteligencia artificial en estaciones de tren, conciertos y partidos de fútbol.

Cuando se inauguren los Juegos a finales de julio, estos sistemas escanearán a las multitudes, comprobarán si hay paquetes abandonados, detectarán armas y mucho más.

Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.

SUSCRIBITE A EL DESTAPE

Las autoridades francesas afirman que estas herramientas no estarán plenamente operativas antes de los juegos, pero a partir de entonces la policía, los bomberos y los servicios de rescate, así como algunos agentes de seguridad del transporte francés, las utilizarán hasta el 31 de marzo de 2025.

Los activistas temen que la vigilancia mediante inteligencia artificial se convierta en la nueva norma.

"Los Juegos Olímpicos son una gran oportunidad para poner a prueba este tipo de vigilancia bajo el pretexto de cuestiones de seguridad, y están allanando el camino a sistemas aún más intrusivos, como el reconocimiento facial", dijo a la Fundación Thomson Reuters Katia Roux, directora de incidencia política de Amnistía Internacional Francia.

ESTACIONES DE TREN Y TAYLOR SWIFT

El Gobierno francés ha recurrido a cuatro empresas: Videtics, Orange Business, ChapsVision y Wintics.

Las plataformas de seguridad de estas empresas miden ocho métricas clave: el tráfico que va a contracorriente, la presencia de personas en zonas prohibidas, el movimiento de multitudes, los paquetes abandonados, la presencia o el uso de armas, el hacinamiento, un cuerpo en el suelo y el fuego.

Los conciertos de Depeche Mode y Black-Eyed Peas, así como un partido de fútbol entre el París Saint-Germain y el Olympique de Lyon, han sido eventos de prueba para el "software".

Se han realizado más pruebas con multitudes que atravesaban las estaciones de metro de Nanterre Préfecture y La Defense Grande Arche para ver a Taylor Swift, y con los 40.000 asistentes al Festival de Cine de Cannes.

El alcalde de Cannes, David Lisnard, dijo que la ciudad ya dispone de la "red de videovigilancia más densa de Francia", con 884 cámaras, una por cada 84 habitantes.

En toda Francia hay unas 90.000 cámaras de videovigilancia, controladas por la policía y la gendarmería, según un informe de 2020.

"Una de las principales preocupaciones es que, aunque la mayoría de estos casos de uso no parezcan implicar la revelación de la identidad o la elaboración de perfiles de personas concretas, exigen el despliegue de una infraestructura de vigilancia que siempre está a una actualización de software de poder llevar a cabo los tipos más invasivos de vigilancia masiva", afirma Daniel Leufer, analista político del grupo de defensa de los derechos digitales AccessNow.

"Los ciudadanos apenas tendrán control sobre qué tipo de cosas vigilan estos sistemas, qué actualizaciones se realizan..., por lo que se producirá el inevitable efecto inhibidor que conlleva este tipo de vigilancia pública", añadió.

LAS OLIMPIADAS SE CONVIERTEN EN EL LABORATORIO DE LA IA

Los parlamentarios franceses han intentado apaciguar las críticas con la prohibición del reconocimiento facial. Las autoridades afirman que se trata de una línea roja que no debe cruzarse.

Matthias Houllier, cofundador de Wintics, dijo que el experimento estaba "estrictamente limitado" a los ocho casos de uso previstos en la ley, y que funciones como la detección de movimientos de multitudes no podían utilizarse para otros procesos como la detección de la marcha, que puede ayudar a identificar a una persona por su forma única de caminar.

Houllier dijo que era "absolutamente imposible" tanto para los usuarios finales como para los ingenieros avanzados utilizar Wintics para el reconocimiento facial debido a su diseño.

Los representantes de Videtics, Orange Business y ChapsVision no respondieron a las peticiones de comentarios.

A los expertos les preocupa que no se haya hecho pública la forma en que el Gobierno está midiendo el éxito de estas pruebas, ni la manera precisa en que funciona esta tecnología.

"No hay ni de lejos la transparencia necesaria sobre estas tecnologías. Existe la lamentable idea de que no podemos permitir la transparencia sobre estos sistemas, especialmente en el contexto de la aplicación de la ley o la seguridad pública, pero esto no tiene sentido", afirmó Leufer.

"El uso de este tipo de tecnologías de vigilancia, especialmente en contextos policiales y de seguridad pública, es quizá el que más daño puede causar y, por lo tanto, exige el máximo nivel de responsabilidad pública", afirmó.

Los defensores de la privacidad afirman que las excepciones en la legislación permitirían el despliegue del reconocimiento facial por parte de las "autoridades competentes", para fines como la seguridad nacional y la migración.

"Esto no es una prohibición. En realidad es una autorización para los organismos encargados de hacer cumplir la ley. La gente tiene la ilusión de que porque se dice que prohibimos la tecnología -excepto en esta, esta y esta situación- está bien, pero estas situaciones son las más problemáticas", dijo Roux.

El uso histórico de la vigilancia en Francia también ha suscitado preocupación. En noviembre del año pasado, la organización sin ánimo de lucro Disclose descubrió que las fuerzas del orden habían utilizado de forma encubierta "software" de reconocimiento facial de la empresa israelí Briefcam desde 2015.

Los políticos franceses sugirieron que todavía había una brecha entre las promesas hechas por la vigilancia mediante IA, y sus capacidades.

"La videovigilancia impulsada por IA no será óptima en el momento de los Juegos Olímpicos. Pero los Juegos Olímpicos serán un gran campo de juego para experimentar con ella", afirmó la senadora Agnes Canayer.

"Se necesitarán más fuerzas de seguridad internas o fuerzas de seguridad privadas para contrarrestar las deficiencias de la tecnología", añadió.

El Ministerio del Interior, que supervisa las fuerzas de seguridad francesas, no respondió a una solicitud de comentarios.

En una lista de propuestas sobre el futuro de la vigilancia con IA, la Comisión Jurídica del Gobierno recomendó que se mantuviera la "base experimental" de la tecnología y que también se ampliara el período de conservación de las imágenes captadas por los sistemas, para "probar los equipos en todas las estaciones" y durante eventos de menor envergadura.

"Por eso decidimos hacer campaña y concienciar ahora mismo sobre el reconocimiento facial, aunque no vaya a utilizarse durante los Juegos Olímpicos", dijo Roux. "Si esperamos a que se vaya a utilizar, entonces será demasiado tarde".

Con información de Reuters