Les signes du premier test d’un système de vidéosurveillance en service sont positifs intelligence artificielle qui sont utilisés pour la sécurité Jeux olympiques à Paris.
La législation française votée en 2023 autorise la vidéosurveillance grâce à l’IA pendant une période test, notamment aux Jeux olympiques, dans le but de détecter les mouvements suspects lors des grands événements.
Selon les autorités, cette technologie pourrait jouer un rôle important dans la prévention d’attentats comme celui d’Atlanta en 1996 ou celui de Nice en 2016.
Néanmoins, les défenseurs des droits humains affirment que cette technologie constitue une menace pour la liberté des citoyens.
Qu’est-ce que la technologie de surveillance par l’IA ?
La vidéosurveillance algorithmique utilise un logiciel informatique pour analyser les images des caméras de surveillance en temps réel.
Quatre sociétés – Videtics, Orange Business, ChapsVision et Wintics – ont développé un logiciel d’IA qui utilise des algorithmes pour analyser les vidéos des systèmes de surveillance existants afin d’identifier les risques potentiels dans les espaces publics.
Les algorithmes sont « entraînés » pour reconnaître des « événements » prédéterminés et des comportements inhabituels et envoyer des alertes. C’est ensuite aux gens de décider s’il existe réellement une menace et s’ils doivent agir.
Que recherchent les algorithmes ?
La loi autorise la surveillance de huit « événements » différents pendant les JO, parmi lesquels : les troubles de la foule, les rassemblements inhabituels, les objets abandonnés, la présence ou l’usage d’armes, une personne au sol, le déclenchement d’un incendie et l’intrusion.
Entre ces catégories, des seuils spécifiques peuvent être définis (par exemple, nombre de personnes, type de véhicule, heure, etc.) pour adapter la surveillance à l’événement, au lieu ou à la menace.
Qui va utiliser cette technologie ?
Les responsables de la police nationale et locale, des pompiers et de la sécurité des transports publics auront accès à ce système de surveillance.
Un logiciel développé par Wintics et testé lors d’un concert de Depeche Mode cette semaine est utilisé en région parisienne et dans les transports en commun.
Le préfet de police de la capitale française a déclaré que le test avait été largement réussi. « Tout s’est relativement bien passé, tous les signes sont positifs. » [για μελλοντική χρήση]», a-t-il souligné.
Y aura-t-il une reconnaissance faciale ?
Interdit. La nouvelle loi interdit l’identification des personnes dans la plupart des cas, alors que les autorités françaises ont déclaré qu’il s’agissait d’une ligne rouge à ne pas franchir.
Cependant, les personnes engagées dans la protection des droits de l’homme craignent que ce nouveau plan ne présente des risques.
« Les logiciels qui permettent la vidéosurveillance à l’aide de l’IA peuvent facilement activer la reconnaissance faciale. « C’est juste un accord », déclare Katia Roux d’Amnesty International en France.
Selon Amnesty International, le cadre juridique de l’identification reste trop vague et les garanties techniques et existantes sont insuffisantes.
Cependant, le co-fondateur de Wintics affirme que les algorithmes du logiciel ne sont pas formés pour reconnaître les visages.
« Il n’y a aucune méthode d’identification personnelle dans nos algorithmes », a-t-il déclaré.
Comment la vie privée est-elle protégée ?
Le ministre français de l’Intérieur a mis en place un comité d’évaluation pour suivre la situation pendant la période de négociation.
Dirigée par un haut fonctionnaire du plus haut tribunal administratif de France, la Commission comprend également le chef du Service français de la protection des données, quatre députés et un maire.
Avec les informations de Reuters
« Géek de la musique. Pionnier du voyage sans vergogne. Entrepreneur passionné. Nerd d’Internet. Gourou professionnel du bacon. »