Au nom de la sécurité des JO de Paris, la France veut surveiller la foule en s’appuyant sur l’IA et les algorithmes

Au nom de la sécurité des JO de Paris, la France veut surveiller la foule en s'appuyant sur l'IA et les algorithmes

VIGI360 cameras provide 360° coverage of an area while recording images on a loop for a period of 72 hours. The technology can also be integrated into new intelligent video systems.

(Clément Gibon)

De l’installation de 15.000 caméras biométriques à Doha pour surveiller les comportements des supporters de la Coupe du monde 2022, à l’introduction en avril dernier de caméras dans les lieux publics pour identifier et sanctionner les femmes non-voilées en Iran, ou encore l’utilisation de la reconnaissance faciale par Israël pour contrôler les Palestiniens d’Hébron et de Jérusalem-Est, les technologies de surveillance de masse sont utilisées par les États pour appuyer toujours plus les forces de l’ordre à des fins sécuritaires.

C’est également le cas dans des pays considérés jusque-là comme plus respectueux des libertés publiques. Ainsi, la France a ouvert la porte à l’expérimentation d’une nouvelle technologie controversée, en mars 2023, en votant un article du projet de loi relatif aux Jeux olympiques et Paralympiques (JOP) de 2024. Cet article autorise l’expérimentation de la vidéosurveillance algorithmique ou automatisée (VSA) à tous les événements sportifs, récréatifs et culturels dépassant les 300 participants jusqu’au 31 mars 2025. La loi a été promulguée le 19 mai et l’expérimentation peut ainsi commencer.

Le texte souligne notamment que les images obtenues auront « pour unique objet de détecter, en temps réel, des événements prédéterminés susceptibles de présenter ou de révéler ces risques et de les signaler », à savoir les mouvements de foule et les comportements suspects. Les capacités de surveillance de l’État sont ainsi décuplées avec un logiciel qui est chargé d’analyser les images fournies par des caméras ou des drones.

Dès qu’elle détecte un comportement ou une situation qu’elle a été entraînée à identifier comme « anormaux », l’intelligence artificielle sera en mesure d’envoyer des alertes aux autorités compétentes.

Pour les défenseurs de cette loi, comme la rapporteuse de la Commission des lois, la sénatrice Agnès Canayer, c’est notamment l’ampleur exceptionnelle de l’événement et les risques sécuritaires associés qui justifient ce type de dispositif. « C’est un événement qui va rassembler dans des lieux restreints un nombre de personnes très important et qui va nécessiter une sécurisation plus importante pour faire face à de nombreux risques, cyber et terroristes, qui sont toujours extrêmement vivaces dans notre pays », confie-t-elle à Equal Times.

Pour la sénatrice, il convient de trouver le juste curseur entre des enjeux sécuritaires et la restriction des libertés publiques. Mme Canayer affirme que de nombreuses garanties ont été accordées pour éviter les dérives, par exemple avec un accompagnement dans la création des algorithmes par la Commission nationale de l’informatique et des libertés (CNIL), une autorité administrative française indépendante. Mme Canayer rappelle également que la VSA demeure seulement un outil d’accompagnement à la décision humaine.

L’introduction de ce type de technologie demeure néanmoins une première pour le continent européen et les risques liés à une généralisation à l’ensemble de la société, et ceux à l’encontre des libertés individuelles et publiques sont importants, comme l’ont souligné 38 organisations européennes de la société civile. Dans une lettre ouverte, elles ont exprimé leurs inquiétudes quant à l’utilisation d’une vidéosurveillance algorithmique intrusive et contraire au droit international relatif aux droits humains.

Les Jeux, un prétexte dans la surveillance généralisée de l’espace public ?

L’histoire contemporaine de la surveillance de masse a montré comment, petit à petit, les technologies s’imposent à travers l’imposition d’un « état de fait », qui pousse la population à n’avoir d’autres choix que de les accepter, très souvent, sous couvert de discours pour garantir la sécurité publique.

L’informatisation des services administratifs durant les années 1970 a apporté un premier changement d’échelle dans la collecte, le traitement et le stockage des données à caractère personnel. L’évolution des technologies qui a suivi avec la mise en réseau par Internet, la géolocalisation par satellite (GPS), ou encore les caméras de vidéosurveillance tout au long des années 1990, a donné les outils nécessaires aux États, mais aussi aux entreprises, pour surveiller toujours plus les populations.

Pour Guilhem Giraud, ancien ingénieur à la DST (Direction de la sécurité du territoire, aujourd’hui dénommée DGSI) et auteur du livre Confidences d’un agent du renseignement français, les attentats du 11 septembre 2001 aux États-Unis ont constitué un tournant majeur dans la normalisation et l’acquisition des technologies de surveillance. Le Patriot Act, voté à la quasi-unanimité du Parlement américain a permis aux opérateurs de télécommunications américains de collecter à la fois des données dites « techniques », liées à l’identification d’une conversation, et des données directement associées aux contenus des conversations, menant à des abus, comme cela a été mis au jour par les informations livrées par Edward Snowden, ancien sous-traitant de la Central Intelligence Agency (CIA) et de la National Security Agency (NSA).

En France, les attentats terroristes de 2015 et la mise en place de l’état d’urgence (un régime juridique d’exception) qui a duré deux ans, ont permis l’introduire d’une longue série de lois sécuritaires, parfois jugées liberticides au regard du droit international, dont de nombreuses dispositions ont été ensuite progressivement intégrées dans le droit commun.

Les raisons qui sont mises en avant et le contexte dans lequel les lois relatives à la sécurité intérieure et la surveillance sont votées sont donc à prendre en considération.

« Les Jeux olympiques ne sont qu’un prétexte pour faire passer ce type de lois qui, autrement, n’auraient pas été acceptées », dénonce Bastien Le Querrec, juriste et membre de la Quadrature du Net, une association française de défense des libertés à l’heure du numérique. « Ces événements permettent de passer à une étape supplémentaire dans la surveillance généralisée de l’espace public. »

Cela a, par exemple, déjà été observé au Japon, où la surveillance du personnel accrédité via la reconnaissance faciale ultra-rapide, a été autorisée pour la première fois à l’occasion des Jeux olympiques de 2020 – qui ont finalement eu lieu à l’été 2021. La Coupe d’Afrique des Nations, en Égypte en 2019, avait, elle aussi, déjà été une occasion pour le régime autoritaire du Maréchal Abdel Fattah al-Sissi de déployer des drones équipés de caméras à reconnaissance faciale pour contrôler cette fois les supporters de football trop politisés.

Un changement de nature et d’échelle

De la même manière que l’informatisation des systèmes a été un tournant dans la surveillance de masse des populations, l’intégration de l’intelligence artificielle dans la vidéosurveillance constitue une nouvelle transition dans la surveillance de masse.

Pour Bastien Le Querrec, il existe un réel changement de nature et d’échelle des dispositifs de surveillance. « L’utilisation des algorithmes dans la vidéosurveillance implique que tous les comportements des personnes filmées dans l’espace public seront analysés en permanence », ajoute-t-il. D’après la Quadrature du net, la VSA est capable d’identifier certains types de silhouettes, d’attributs physiques, de démarches ou de comportements chez les individus. Des données que les associations jugent trop sensibles, mais que les défenseurs de la loi estiment comme étant non-biométriques, puisqu’elles ne permettent pas d’identifier nommément les personnes.

Toutefois, si la reconnaissance biométrique et faciale a été exclue de la loi sur les JO2024, un autre projet législatif sur son expérimentation déjà été approuvé par le Sénat, le 12 juin, ouvrant ainsi la voie à une possible utilisation dans des cas de menaces graves.

Il n’en demeure pas moins qu’au niveau sociologique, les implications d’une surveillance élargie et permanente, exercée par les États, sont importantes. Des recherches menées au Zimbabwe sur le sujet ont démontré qu’elle provoquait un lissage des comportements et des interactions humaines, qui peut décourager l’exercice légitime des libertés publiques et individuelles. Cet « effet bloquant » (ou « chilling effect » ) a aussi été dénoncé par le Conseil de l’Europe, notamment à travers l’utilisation du logiciel Pegasus par certains membres de l’UE.

Selon M. Le Querrec, l’introduction d’algorithmes dans la vidéosurveillance est un choix politique fort qui tend à dépolitiser les décisions des autorités locales. À titre d’exemple, la Régie autonome des transports parisiens (RATP) en France qui a effectué des tests avec ce type de technologie a conclu que la détection de comportement de « maraudage » n’était pas encore efficace et conduisait à détecter des faux positifs. Malgré tout, le repérage de ce type de comportement est toujours proposé par les fabricants de matériel technologique.

« On sait très bien que, derrière, les autorités veulent repérer un certain type de personnes qui font la manche. Autoriser la détection des comportements associés au maraudage, c’est dépolitiser la manière de faire la chasse au pauvre », affirme M. Le Querrec.

L’utilisation de ce type de technologie est d’autant plus controversée que très peu d’études existent sur l’efficacité de ces dernières. Au contraire, de nombreux rapports d’organisations de défense des droits humains, telles Amnesty International, ont démontré comment la reconnaissance faciale gouvernementale a un impact disproportionné sur les personnes racisées, par exemple à New York. Ces dernières courent un plus grand risque d’être mal identifiées en raison de données de référence incomplètes et sont donc sujettes à plus d’arrestations injustifiées.

« Jusqu’à aujourd’hui, les gouvernements n’ont pas démontré qu’ils peuvent utiliser ces technologies sans menacer les droits humains, ou qu’il n’existe pas d’autres moyens moins intrusifs pour atteindre le même objectif. La proportionnalité de ces mesures aux risques est un réel enjeu », affirme Mher Hakobyan, conseiller d’Amnesty International sur la réglementation en matière d’intelligence artificielle.

Un marché en pleine expansion et un début de régulation ?

Malgré les nombreux risques identifiés par ce type de technologies, le marché de la vidéosurveillance technologique est en pleine expansion. Poussés par des multinationales de la sécurité et les lobbies spécialisés, de nombreux gouvernements introduisent ce type de technologie sans base juridique solide.

Dans son dernier rapport, l’association européenne pour les droits digitaux (EDRi) identifie ainsi une augmentation « choquante » de l’utilisation illégale de la surveillance biométrique de masse en Allemagne, aux Pays-Bas et en Pologne, notamment à la suite des mesures de contrôle mises en place durant la crise sanitaire de 2020-2022.

Face à cet engouement pour les nouvelles technologies de surveillance de masse, Guilhem Giraud met en garde les différents gouvernements contre une forme de « techno-solutionnisme » et privilégie des technologies de ciblage. « Quand on se livre à de la surveillance de masse, on noie l’information utile dans un magma d’informations, l’algorithme se noie. À budget constant, il vaut mieux investir dans des technologies de surveillance ciblée qui seront beaucoup plus efficaces », affirme M. Giraud.

Alors que l’Union européenne élabore actuellement une législation inédite pour réglementer les utilisations néfastes de l’intelligence artificielle à travers l’Artificial Intelligence Act, Mher Hakobyan rappelle l’importance de la mobilisation et l’action citoyenne pour faire face à l’introduction de ce type de technologie.

« Ce que l’UE va introduire avec la loi sur l’IA aura un impact sur le reste du monde et les gens oublient souvent le pouvoir qu’ils ont pour influencer le texte final d’une loi », confie-t-il à Equal Times. « Par exemple, directement s’adresser aux représentants nationaux est quelque chose que les citoyens peuvent faire pour changer une législation », conclue-t-il.

This article has been translated from French.