Francia quiere vigilar a las multitudes con la ayuda de inteligencia artificial y algoritmos durante los JJOO de París

Francia quiere vigilar a las multitudes con la ayuda de inteligencia artificial y algoritmos durante los JJOO de París

VIGI360 cameras provide 360° coverage of an area while recording images on a loop for a period of 72 hours. The technology can also be integrated into new intelligent video systems.

(Clément Gibon)

Desde la instalación de 15.000 cámaras biométricas en Doha para vigilar el comportamiento de los hinchas del Mundial de Fútbol de 2022, hasta la introducción el pasado mes de abril de cámaras en lugares públicos para identificar y castigar a las mujeres sin velo en Irán, o el uso del reconocimiento facial por parte de Israel para controlar a los palestinos en Hebrón y Jerusalén Este, las tecnologías de vigilancia masiva están siendo utilizadas por los gobiernos para prestar cada vez más apoyo a las fuerzas del orden con fines de seguridad.

Lo mismo ocurre en países que antes se consideraban más respetuosos con las libertades civiles. Francia, por ejemplo, abrió la puerta a la experimentación con una nueva y controvertida tecnología en marzo de 2023, cuando aprobó un artículo del proyecto de ley relativo a los Juegos Olímpicos y Paralímpicos de 2024. Este artículo autoriza la experimentación con la videovigilancia algorítmica o automatizada (VSA, por sus siglas en francés) en todos los acontecimientos deportivos, recreativos y culturales con más de 300 participantes hasta el 31 de marzo de 2025. La ley fue promulgada el 19 de mayo, lo que permite que el experimento pueda comenzar.

El texto subraya que el único objetivo de las imágenes obtenidas será “detectar, en tiempo real, acontecimientos predeterminados susceptibles de presentar o revelar estos riesgos y señalarlos”, es decir, los movimientos de la muchedumbre y los comportamientos sospechosos. Las capacidades de vigilancia del Estado se multiplican así por diez con un software encargado de analizar las imágenes suministradas por las cámaras o los drones.

En cuanto detecte un comportamiento o una situación que identifique como “anormal”, según el entrenamiento que haya recibido, la inteligencia artificial podrá enviar alertas a las autoridades competentes.

Para los partidarios de esta ley, como la ponente de la Comisión de Derecho, la senadora Agnès Canayer, es la dimensión excepcional del acontecimiento y los riesgos de seguridad que entraña lo que justifica este tipo de sistema. “Es un acontecimiento que va a reunir a un número muy elevado de personas en un espacio muy reducido, y va a requerir mayor seguridad para hacer frente a los numerosos riesgos cibernéticos y terroristas que siguen estando extremadamente presentes en nuestro país”, declaró a Equal Times.

Para la senadora, es necesario encontrar el justo equilibrio entre las cuestiones de seguridad y la restricción de las libertades civiles. Canayer afirma que se han establecido numerosas salvaguardias para evitar abusos, tales como el acompañamiento a la creación de algoritmos por parte de la Commission Nationale de l’Informatique et des Libertés (CNIL), una autoridad administrativa francesa independiente. La senadora también señala que la videovigilancia algorítmica es solo una herramienta de apoyo a la toma de decisiones humanas.

Sin embargo, la introducción de este tipo de tecnología sigue siendo una primicia en el continente europeo, y los riesgos asociados a su generalización al conjunto de la sociedad, así como los que se ciernen sobre las libertades individuales y públicas, son importantes, como lo han señalado 38 organizaciones europeas de la sociedad civil. En una carta abierta, expresaron su preocupación por el uso de la videovigilancia algorítmica, intrusiva y contraria al derecho internacional relativo a los derechos humanos.

Los Juegos, ¿un pretexto para la “vigilancia generalizada del espacio público”?

La historia contemporánea de la vigilancia masiva ha demostrado cómo, poco a poco, las tecnologías se implantan mediante la imposición de una “situación de hecho”, que obliga a la población a no tener más remedio que aceptarlas, muy a menudo bajo el pretexto de garantizar la seguridad pública.

La informatización de los servicios administrativos en la década de los años 1970 supuso un primer cambio de escala en la recogida, el tratamiento y el almacenamiento de datos personales. Los avances tecnológicos que siguieron, con la creación de redes de Internet, la geolocalización por satélite (GPS) y las cámaras de videovigilancia a lo largo de la década de 1990, proporcionaron a los gobiernos, pero también a las empresas las herramientas necesarias para vigilar cada vez más de cerca a los ciudadanos.

A juicio de Guilhem Giraud, antiguo ingeniero de la DST (Direction de la Sécurité du Territoire, actual DGSI) y autor del libro Confidences d’un agent du renseignement français (Confidencias de un agente de la inteligencia francesa), los atentados del 11 de septiembre de 2001 en Estados Unidos supusieron un importante punto de inflexión en la normalización y adquisición de tecnologías de vigilancia. La ley Patriot Act, aprobada casi por unanimidad por el parlamento estadounidense, permitió a los operadores de telecomunicaciones estadounidenses recoger tanto datos denominados “técnicos”, vinculados a la identificación de una conversación, como datos directamente asociados al contenido de las conversaciones, lo que dio lugar a abusos, como reveló la información facilitada por Edward Snowden, antiguo subcontratista de la Agencia Central de Inteligencia (CIA) y de la Agencia de Seguridad Nacional (NSA).

En Francia, los atentados terroristas de 2015 y la instauración del estado de emergencia (régimen jurídico de excepción), que duró dos años, condujeron a la introducción de una larga serie de leyes de seguridad, a veces consideradas liberticidas según el derecho internacional, muchas de cuyas disposiciones se incorporaron después progresivamente al derecho común.

Así, hay que tener en cuenta las razones esgrimidas y el contexto en el que se aprueban las leyes sobre seguridad interior y vigilancia. “Los Juegos Olímpicos no son más que un pretexto para aprobar este tipo de legislación que de otro modo no habría sido aceptada”, afirma Bastien Le Querrec, abogado y miembro de La Quadrature du Net, una asociación francesa de defensa de las libertades en la era digital. “Estos hechos son un paso más en la vigilancia generalizada del espacio público”.

Una situación ya observada, por ejemplo, en Japón, donde se autorizó por primera vez la vigilancia del personal acreditado mediante reconocimiento facial ultrarrápido para los Juegos Olímpicos de 2020, que finalmente se celebraron en el verano de 2021. La Copa Africana de Naciones celebrada en Egipto en 2019 también fue una oportunidad para que el régimen autoritario del mariscal Abdel Fattah al-Sissi desplegara drones equipados con cámaras de reconocimiento facial, esta vez para controlar a los aficionados al fútbol demasiado politizados.

Un cambio de naturaleza y de escala

Al igual que la informatización de los sistemas supuso un punto de inflexión en la vigilancia masiva de los ciudadanos, la integración de la inteligencia artificial en la videovigilancia representa una nueva transición en la vigilancia en masa.

Bastien Le Querrec opina que se ha producido un verdadero cambio en la naturaleza y la escala de los sistemas de vigilancia. “El uso de algoritmos en la videovigilancia significa que todo el comportamiento de las personas filmadas en el espacio público será constantemente analizado”, añade. Según Quadrature du net, la videovigilancia algorítmica es capaz de identificar determinados tipos de silueta, atributos físicos, forma de andar o comportamiento de las personas. Las asociaciones consideran que estos datos son demasiado sensibles, pero los defensores de la ley consideran que no son biométricos, ya que no identifican a las personas por su nombre. No obstante, si bien se ha excluido de la ley sobre los JJOO el reconocimiento biométrico y facial, otro proyecto legislativo sobre su experimentación fue aprobado este 12 de junio por el Senado, lo que abre una vía a una posible utilización en caso de amenazas graves.

No obstante, desde un punto de vista sociológico, las implicaciones de una vigilancia amplia y permanente por parte de los gobiernos son importantes. Las investigaciones llevadas a cabo en Zimbabue sobre este tema han demostrado que conduce a un ajuste de los comportamientos y las interacciones humanas, lo que puede desalentar el ejercicio legítimo de las libertades públicas e individuales. Este “efecto amedrentador” también ha sido denunciado por el Consejo de Europa, en particular por el uso del software Pegasus por parte de algunos miembros de la Unión Europea.

Según Le Querrec, la introducción de algoritmos en la videovigilancia es una opción política fuerte que tiende a despolitizar las decisiones de las autoridades locales. Por ejemplo, la Régie Autonome des Transports Parisiens (RATP) de Francia, que realizó pruebas con este tipo de tecnología, llegó a la conclusión de que la detección de comportamientos de “merodeo” aún no era eficaz y conducía a la detección de falsos positivos. A pesar de ello, los fabricantes de equipos tecnológicos siguen ofreciéndose para detectar este tipo de comportamientos.

“Sabemos muy bien que las autoridades quieren identificar a cierto tipo de personas que practican la mendicidad. Autorizar la detección de comportamientos asociados al merodeo significa despolitizar la forma en que se persigue a los pobres”, afirma Le Querrec.

El uso de este tipo de tecnología es más controvertido si cabe dado el reducido número de estudios que existen sobre su eficacia. Por el contrario, numerosos informes de organizaciones de derechos humanos como Amnistía Internacional han demostrado hasta qué punto el reconocimiento facial gubernamental tiene un impacto desproporcionado en las personas racializadas, por ejemplo, en Nueva York. Estas personas corren un mayor riesgo de ser identificadas erróneamente debido a que los datos de referencia son incompletos y, por tanto, son víctimas de un mayor número de detenciones injustificadas.

“Hasta la fecha, los gobiernos no han demostrado que puedan utilizar estas tecnologías sin representar una amenaza para los derechos humanos, o que no existan otros medios menos intrusivos para lograr el mismo objetivo. La proporcionalidad de estas medidas a los riesgos es un desafío”, afirma Mher Hakobyan, asesor de Amnistía Internacional sobre la regulación de la inteligencia artificial.

¿Mercado en expansión y regulación balbuciente?

A pesar de los numerosos riesgos que entraña este tipo de tecnología, el mercado de la videovigilancia tecnológica está en pleno auge. Impulsados por las multinacionales de la seguridad y los grupos de presión especializados, muchos gobiernos están introduciendo este tipo de tecnología sin una base jurídica sólida. En su último informe, la asociación europea por los derechos digitales (EDRi) identifica un aumento “escandaloso” del uso ilegal de la vigilancia biométrica masiva en Alemania, Países Bajos y Polonia, sobre todo tras las medidas de control puestas en marcha durante la crisis sanitaria de 2020-2022.

Frente a este entusiasmo por las nuevas tecnologías de vigilancia masiva, Guilhem Giraud advierte a los distintos gobiernos contra una forma de “tecnosolucionismo” y se muestra partidario de las tecnologías selectivas. “Cuando se emprende una vigilancia masiva, se ahoga la información útil en un magma de información, y el algoritmo acaba por verse ahogado. Con un presupuesto constante, es mejor invertir en tecnologías de vigilancia selectiva, que serán mucho más eficaces”, afirma Giraud.

Mientras la Unión Europea elabora actualmente una legislación pionera para regular los usos nocivos de la inteligencia artificial a través de la Artificial Intelligence Act, Mher Hakobyan recuerda la importancia de la movilización y la acción ciudadana para contrarrestar la introducción de este tipo de tecnología.

“Lo que la Unión Europea va a introducir con la ley de la inteligencia artificial tendrá repercusiones en el resto del mundo, y las personas suelen olvidar el poder que tienen para influir en el texto final de una ley”, explica a Equal Times. “Por ejemplo, dirigirse directamente a los representantes nacionales es algo que los ciudadanos pueden hacer para cambiar una legislación”, concluye.

This article has been translated from French.