Surveillance : "Les JO servent d'expérimentation à des systèmes sécuritaires"

La rédaction - - Numérique & datas - 18 commentaires


Souriez ou ne souriez pas, vous serez quand mêmes filmé·es, et même analysé·es ! À l'approche des Jeux de Paris 2024, les lieux accueillant des épreuves se hérissent de caméras de surveillance, appuyés par des logiciels toujours plus puissants, et toujours plus intrusifs : capables de repérer un mouvement de foule, un bagage abandonné, un tshirt rouge ou un comportement suspect, deviendront-ils la norme ? Journalistes et associations alertent face à ce qui ressemble à une dérive sécuritaire de grande échelle. Et si le gouvernement jure que la reconnaissance faciale n'aura pas cours en France, il y a tout lieu de douter. Demain, tous traqués ? 

Nos trois invité·es du jour alertent sur le sujet : Katia Roux, chargée de plaidoyer pour Amnesty International ; Thomas Jusquiame, journaliste auteur de Circulez, la ville sous surveillance (Marchialy, 2024) ; Clément Le Foll, journaliste ès vidéosurveillance pour Mediapart, Disclose ou l'Équipe. 

Des technologies "toujours plus intrusives"

L'utilisation de la vidéosurveillance (VSA) algorithmique pendant les Jeux olympiques et paralympiques est-elle un cheval de Troie ? Oui, répond Katia Roux, craignant qu'un retour en arrière soit à l'avenir impossible : "C'est un pied dans la porte. On voit bien qu'à situation exceptionnelle, moyens exceptionnels, certes, mais ces moyens restent. L'héritage des JO sera certainement des technologies de surveillance."

"La vidéosurveillance classique ne marche pas"

L'utilisation de la VSA, enjeu économique et sécuritaire, ne répond à aucune logique d'efficacité, rappelle Clément Le Foll : "La vidéosurveillance classique ne marche pas. Aucune enquête indépendante ne montre son efficacité. Mais l'argument du secteur est de dire que comme l'opérateur vidéo ne repère pas tout, on va l'aider, on va rajouter une couche algorithmique, et les entreprises surfent sur ce business."

Le cas BriefCam

Une enquête de Clément Le Foll pour Disclose révélait fin 2023 que la police nationale, en violation de la loi, utilisait le logiciel de reconnaissance faciale BriefCam. Fait marquant : un audit révélait que "le logiciel est livré avec une option reconnaissance faciale, qui est activée par défaut depuis 2018. Les policiers qui utilisent ce logiciel, même s'ils ont demandé un logiciel de vidéosurveillance algorithmique, ils ont face à eux un logiciel qui permet de faire de la reconnaissance faciale." 

"La VSA devient un produit comme un autre"

Au-delà de la question sécuritaire, les acteurs du secteur se diversifient, rappelle Thomas Jusquiame : "Ils s'attaquent par exemple aux magasins, pour analyser le temps qu'on va passer devant un rayon. [...] Il y a aussi les stations de ski qui sont visées, les files d'attente. Il y a aussi la société Veesion qui analyse les comportements de vol dans les magasins." Conséquence de cette omniprésence de la VSA dans nos vies : "La VSA devient un produit comme un autre, sauf qu'on analyse nos données comportementales à notre insu, en attaquant nos droits, et ça permet à des entreprises de faire de l'argent."

Pour aller plus loin 

- Le livre de Thomas Jusquiame, Circulez, la ville sous surveillance (Marchialy, 2024).
- Les alertes d'Amnesty International sur la vidéosurveillance algorithmique pendant les JO.
- Les enquêtes de Clément Le Foll pour Mediapart

Lire sur arretsurimages.net.

Cet article est réservé aux abonné.e.s