L’IA au service de la sécurité
Sécurité, nouvelles technologie et vie privée
IA et sécurité : des besoins opérationnels, des conditions à réunir
De nombreuses opportunités
Un cadre éthique nécessaire
Les JO 2024 comme tremplin pour l’utilisation de l’IA dans le secteur de la sécurité
L’IA comme une aide à la décision dans le traitement de la délinquance
Des usages de l’IA développés pour aider au traitement de données
L’accélération des usages : le déclic des JO de Paris 2024
Un cadre juridique et règlementaire précis et renforcé par l’AI ACT
En France, un cadre protecteur avec la CNIL, des tentatives politiques pour avancer
Un cadre européen strict avec l’AI Act
Un usage opérationnel réel et multiple au service des forces de sécurité intérieure
Optimiser les échanges et la communication
Produire de la connaissance et éclairer l’action en temps réel
Faciliter, accélérer et simplifier les tâches administratives et techniques
Pour tirer profit des opportunités analytiques de l’IA
Augmenter les capacités d’enquête
Pour renforcer la prise en charge des victimes
Pour faire évoluer la relation entre la police et la population
Recommandations : apprendre, tester et encadrer pour développer un modèle d’IA de confiance
Résumé
L’histoire des forces de sécurité intérieure est parsemée d’innovations technologiques, générant des débats à la fois sur leur efficacité et sur la protection des libertés fondamentales. Les objets connectés et les systèmes d’IA ne font pas exception à la règle. L’IA pourrait potentiellement amener à de profondes transformations dans l’exercice des métiers de la sécurité intérieure. Elle a d’ores et déjà été utilisée lors de certains événements pour aider à la décision et traiter les données, comme lors des jeux olympiques et paralympiques de Paris 2024. Cela nécessite un cadre juridique rigoureux, étant donné la sensibilité du sujet, cadre incarné par la CNIL en France et l’AI Act au niveau européen, avec pour objectif de garantir la sûreté, la transparence, l’éthique et le contrôle humain des systèmes d’IA.
Les perspectives ouvertes par ces derniers en matière de sécurité intérieure sont très vastes : optimisation des échanges entre forces de sécurité intérieure, analyse de données et production de connaissance, aide à l’action en temps réel, simplification des tâches administratives, accélération des procédures pour les usagers… Au-delà d’un cadre législatif et éthique clair, ces innovations, pour être utiles, doivent s’inscrire dans une doctrine au niveau du ministère de l’Intérieur, qui tiendrait compte du ressenti des effectifs de terrain et s’appuierait sur des dispositifs d’évaluation pour mesurer l’efficacité et le rapport coûts/bénéfices de ces outils.
Benoit FAYET,
Consultant Défense & Sécurité Sopra Steria Next et membre du Centre de réflexion pour la sécurité intérieure (CRSI).
Bruno Maillot,
Expert data et intelligence artificielle Sopra Steria Next.
Mathieu Zagrodzki,
Docteur en science politique et chercheur spécialisé dans les questions de sécurité intérieure.

L'intelligence artificielle en Chine : un état des lieux

L'intelligence artificielle : l'expertise partout accessible à tous

La régulation du numérique: Chine, États-Unis, France

Commerce illicite de cigarettes

Commerce illicite de cigarettes

Vers la souveraineté numérique

Lutter contre les vols et cambriolages : une approche économique
Sécurité, nouvelles technologie et vie privée
Dominique Monjardet, « Les policiers », dans Laurent Mucchielli et Philippe Robert (dir.), Crime et Sécurité : l’état des savoirs, Paris, La Découverte, 2002.
Kevin Strom, Research on the Impact of Technology in the 21st Century, Final Report, Washington DC, US Department of Justice, mai 2016 [en ligne].
Herman Goldstein, « Improving Policing : a Problem-Oriented Approach », Crime and Delinquency, avril 1979, pp. 236-258 ; Frédéric Ocqueteau Frédéric (dir.), Community Policing et Zero Tolerance à New York et Chicago : en finir avec les mythes, Paris, La Documentation française, 2003.
Sarah Brayne, Predict and Surveil. Data, Discretion and the Future of Policing, Oxford University Press, 2021.
Robin Rivaton, Souriez, vous êtes filmés ! Paris, L’Observatoire, 2021.
Élodie Lemaire, L’œil sécuritaire. Mythes et réalités de la vidéosurveillance, Paris, La Découverte, 2019.
Fabien Binacchi, « Nice : la CNIL demande l’arrêt de Reporty, l’application d’appels vidéo en direct à la police », 20 Minutes, 20 mars 2018 [en ligne].
L’histoire des forces de sécurité intérieure (FSI) est parsemée d’exemples d’évolutions technologiques ayant transformé leur activité. L’arrivée de la voiture, de la radio et du téléphone au cours du xxe siècle a par exemple rendu les services de police plus mobiles, plus réactifs et plus faciles à solliciter1. Il serait trop long de détailler ici tous les changements qui ont révolutionné ou en tout cas facilité le travail policier, que ce soit dans le domaine de la gestion de la voie publique, de l’investigation ou du renseignement : mise en place de fichiers, outils de police technique et scientifique, informatisation, systèmes d’écoute, radars de vitesse, cartographie criminelle, géolocalisation des patrouilles… Le but a été à chaque fois d’améliorer l’efficience et l’efficacité des forces de l’ordre, dans un contexte de ressources limitées et d’attention accrue sur les questions de sécurité2. L’arrivée du big data et des algorithmes n’est qu’une nouvelle étape de cette progression, puisque la police a toujours collecté des données, d’abord de manière rudimentaire puis via des outils informatiques.
De nombreuses stratégies policières ayant émergé ces dernières années3 sont fondées sur une utilisation extensive des statistiques de la délinquance, avec géolocalisation et horodatage des événements, afin d’allouer au mieux les ressources policières et de mieux rendre compte de l’action des forces de l’ordre. L’étape suivante a été l’expérimentation d’outils de police prédictive, à l’instar de ceux déployés par la police de Los Angeles à partir du milieu des années 20004.
Cette évolution des technologies utilisées pour assurer la sécurité des biens et des personnes pose une question plus vaste sur le rapport des citoyens à la surveillance, étatique ou privée, dans des sociétés démocratiques où la protection de la vie privée fait partie du socle des libertés fondamentales : sa protection a été affirmée en 1948 par la Déclaration universelle des droits de l’homme des Nations unies (art. 12) et l’article 9 du Code civil français dispose que « toute personne a droit au respect de sa vie privée ». Par ailleurs, la question de la surveillance par l’État suscite des craintes dans l’imaginaire collectif : elle traverse les sciences sociales (Michel Foucault et sa société du panoptique), la littérature (George Orwell et son Big Brother dans 1984) ou encore le cinéma (Demolition Man en 1993). Elle constitue, aussi et surtout, un débat de société, qui s’est développé au fur et à mesure que les nouvelles technologies ont augmenté les capacités de collecte d’informations individuelles des institutions publiques et privées. La vidéoprotection en constitue l’exemple le plus évident. Certains à l’instar de Robin Rivaton5, constatent leur acceptation par la majorité de la société française et le caractère irréversible de leur implantation dans un contexte d’amélioration constante des technologies de la vision au service de la sécurité des biens et des personnes. À l’inverse, ses contempteurs dénoncent un outil dont l’efficacité est mal évaluée, coûteux pour les contribuables et qui construit par ailleurs un modèle de société où la protection sécuritaire serait plus importante que la protection sociale6.
Par la suite, de nouvelles controverses sont apparues avec le développement de nouveaux outils de différentes natures : reconnaissance faciale, biométrie, drones, applications de signalement d’infractions… Elles ont reproduit les mêmes lignes de fracture que celles observées pour la vidéoprotection. Des technologies jugées intrusives ont ainsi fait l’objet de décisions judiciaires ou administratives : l’application « Reporty » permettant à des citoyens de filmer un incident et d’envoyer le flux vidéo en direct à la police municipale a vu son expérimentation à Nice stoppée par la CNIL début 20187, de même que la mise en place de la reconnaissance faciale dans deux lycées de la région PACA ou par le Football Club de Metz8. À cela s’ajoutent les inquiétudes liées à la surveillance par les géants du numérique, qui, dans la foulée de l’affaire Snowden et des révélations sur l’usage de données à des fins commerciales mais aussi électorales par Google ou Facebook, apparaissent plus présentes que jamais à une époque où nous communiquons, volontairement ou non, un nombre croissant d’informations privées sur Internet.
IA et sécurité : des besoins opérationnels, des conditions à réunir
De nombreuses opportunités
Clayton M. Christensen, Le dilemme de l’innovateur, Valor Eds, 1997.
En effet, les objets connectés et les systèmes d’IA structurent toujours davantage nos vies quotidiennes : transports, commerce électronique, livraison à domicile, énergie, santé, domotique, agriculture… La majorité de la population française connaît ainsi une vie numérique qui se densifie et se diversifie avec l’IA.
En France, l’IA est évoquée de manière plus progressive dans les métiers de la sécurité, à savoir ceux qui sont exercés par les forces de sécurité intérieure, qu’ils soient policiers nationaux, gendarmes, ou policiers municipaux.
Comme indiqué précédemment, depuis des années, la technologie a fait évoluer les métiers de la police, enclenchant une véritable bascule numérique. Le développement des usages du numérique par les forces de sécurité intérieure est en effet massif, notamment pour :
– appuyer leurs actions au quotidien avec la mise à disposition de systèmes d’informations, de bases de données et logiciels informatiques pour prendre un dépôt de plainte, permettre de rédiger des procédures, consulter des informations sur un individu, ou dernièrement le développement de la biométrie (digitale et génétique) utilisée par les forces de sécurité intérieure pour identifier et authentifier des individus (prises d’empreintes digitales, …) ;
– améliorer la communication opérationnelle grâce à des outils de cartographie, des réseaux de communication, des outils mobiles pour accompagner les patrouilles ;
– renforcer et anticiper le suivi de la délinquance, notamment dans les territoires, ou assurer la gestion de crise (vidéoprotection, centre de commandement…) ;
– numérisation de la prise en charge des victimes avec le développement plus récent de sites en ligne et applications dédiés (dépôt de plainte, signalement, …).
L’IA pourrait venir renforcer chacun de ces usages numériques actuels. En effet, les forces de sécurité intérieure disposent déjà de moyens numériques avancés et exploitent quotidiennement des données. Grâce à l’IA, ces moyens pourraient être décuplés, marquant une nouvelle révolution numérique au ministère de l’Intérieur.
En effet, l’IA n’est pas seulement un outil mais une véritable innovation disruptive, comme formulé par Clayton Christensen9, des métiers et des pratiques professionnelles et pourrait ainsi amener des transformations profondes des métiers exercés par les forces de sécurité intérieure, notamment ceux en tension et en crise, comme pour la police judiciaire. L’IA pourrait également renforcer la sécurité des Français en réduisant le temps consacré par les forces de sécurité intérieure à des tâches techniques ou administratives, augmentant ainsi leur présence sur la voie publique ce qui permet de dissuader et prévenir la délinquance.
Un cadre éthique nécessaire
Une enquête sur les technologies de sécurité innovante organisée en septembre 2024 par le Continuum Lab montre d’ailleurs que 65% des Français considèrent l’IA comme utile pour les forces de l’ordre et 63% sont plutôt confiants dans la possibilité de concilier liberté et sécurité grâce aux technologies ». Continuumlab, « Les technologies de sécurité innovantes : la perception positive des français », septembre 2024 [en ligne].
Pour cela, des conditions préalables sont nécessaires, à commencer par une bonne maîtrise du cadre juridique et règlementaire national et européen. Ensuite, il est nécessaire de poser le cadre politique de l’usage de l’IA afin d’en faciliter la compréhension par les forces de sécurité intérieure elles-mêmes, ainsi que l’acceptation des Français et la société dans son ensemble10. L’IA doit être identifiée comme un outil et non comme une fin en soi, car utilisée dans un cadre éthique et souverain, clair et partagé, loin des usages parfois excessifs développés à l’étranger.
L’IA doit être un outil, la prise de décision, l’action et le contrôle devant toujours relever des forces de sécurité intérieure, il n’est pas question en effet de sacrifier ces principes clés à « la civilisation des machines », comme s’en inquiétait déjà Georges Bernanos en 1947 dans La France contre les robots.
Enfin, il convient de s’assurer de la souveraineté des technologies avec, idéalement, des solutions employées françaises ou européennes et surtout de travailler à une nécessaire identification des bons cas d’usage susceptibles de satisfaire au déploiement progressif de l’IA au service de la sécurité des Français. Il s’agit de l’objectif de cette note : identifier des applications et des usages matures pour définir ce que l’IA pourrait faire ensuite, dans ce cadre maitrisé à la fois juridiquement, d’un point de vue éthique et, enfin, technologiquement.
Les JO 2024 comme tremplin pour l’utilisation de l’IA dans le secteur de la sécurité
Quelques expériences et usages de l’IA ont été déjà déployés en France dans les différents métiers de la sécurité, que ce soit pour traiter la délinquance sur la voie publique, pour des tâches administratives, d’investigations ou dans le cadre d’activités plus spécifiques du secteur comme la sécurité routière.
Plusieurs innovations autour de l’IA ont en outre été permises progressivement par le biais d’expérimentations, ou ont eu un effet d’accélération, par exemple dans le cadre des jeux olympiques et paralympiques de Paris 2024. Ces cas d’usages précurseurs sont intéressants et montrent que la réflexion sur l’IA dans les métiers de la sécurité évolue, s’adapte à l’innovation, aux réussites et aux échecs.
L’IA comme une aide à la décision dans le traitement de la délinquance
Anticiper et prévenir des faits de délinquance est le cœur du métier des forces de sécurité intérieure. C’est la raison pour laquelle, dans le cadre de projets et d’expérimentations, l’IA a d’ores et déjà été sollicitée non pas pour prédire les faits de délinquance mais pour mieux les comprendre, les analyser, et in fine aider à décider. En effet, la délinquance n’est pas un phénomène aléatoire et peut être analysée en récupérant des données statistiques sur un territoire défini afin d’alimenter des modèles mathématiques permettant de mieux opérer au quotidien sur ce territoire (localisation, horaires des patrouilles…). Des méthodes analytiques ont été utilisées par la Gendarmerie nationale, comme les réseaux neuronaux ou le lissage temporel sur des données non personnelles et non nominatives issues du Service statistique ministériel de la sécurité Intérieure (SSMSI), ensuite exploitées par de la data visualisation (tableaux de bord) afin de suivre l’évolution de la délinquance sur un territoire. Il ne s’agit donc pas d’outils de police prédictive, car ils ne prévoient rien, mais d’analyse décisionnelle sur des faits passés pouvant fournir une orientation aux forces de sécurité intérieure, ce qui leur est impossible d’avoir sans la capacité d’analyse et de croisement de données de l’IA. La méthode consiste à regarder, à titre d’exemple, où ont eu lieu des cambriolages et des atteintes aux véhicules sur une période donnée et un territoire pour en déduire où risquent de se produire les prochains faits. L’idée est de s’en servir pour cibler des territoires précis et planifier l’engagement d’unités où l’infraction risque de se produire afin de dissuader d’éventuels délinquants.
D’autres expérimentations avec des outils plus prédictifs, allant au-delà de l’aide à la décision et comprenant une prédiction en termes de risque ou d’occurrence, ont aussi été réalisées mais n’ont pas démontré leur plus-value opérationnelle.
Des usages de l’IA développés pour aider au traitement de données
La Gendarmerie nationale a aussi développé les premiers outils de traitement de données à base d’IA, notamment pour appuyer des phases d’enquête et d’investigation. Des outils peuvent ainsi être employés pour appuyer les forces de sécurité intérieure dans la surveillance de communications mise en œuvre dans le cadre d’une enquête de police judiciaire. Ils permettent de détecter les langues parlées dans des écoutes téléphoniques autorisées par un juge d’instruction, de retranscrire et de traduire les échanges, d’identifier et de signaler les sujets pertinents pour l’enquête via des réseaux récurrents de neurones11.
De même, un projet a été développé permettant la retranscription d’auditions filmées (par exemple d’une victime) et incluant également un outil d’annotateur des objets d’un texte de procédure (personnes, lieux, date, objets…).
Enfin, l’Agence du numérique des forces de sécurité intérieure (ANFSI), en charge du développement de leurs équipements numériques expérimente un outil de réalisation du compte rendu d’intervention simplifié par « commande vocale » sur les smartphones NEO12.
L’accélération des usages : le déclic des JO de Paris 2024
À l’occasion des JO de Paris 2024, plusieurs utilisations de « vidéos augmentées » ont été autorisées en Île-de-France, sous la supervision de la préfecture de police de Paris, de la RATP et de la SNCF. La loi du 19 mai 202313 a permis en effet, pour la première fois, la mise en œuvre de solutions d’IA dans la vidéoprotection, dans un cadre précis excluant l’utilisation de la reconnaissance faciale. L’expérimentation ouverte ne visait que la détection d’évènements prédéterminés, à savoir la présence d’objets abandonnés, la présence ou utilisation d’armes, le non-respect par un véhicule du sens de circulation ou d’une zone interdite, les mouvements de foule et les départs de feux.
Plus spécifiquement, l’article 10 de cette loi a autorisé la mise en œuvre de l’IA sur certains flux vidéo à partir de caméras fixes pour détecter certaines situations afin de sécuriser les épreuves des JO de Paris 2024, particulièrement exposés à un risque terroriste ou d’atteinte à la sécurité des personnes.
En conclusion, si des expérimentations et des projets existent, ceux-ci restent à la marge, loin d’une généralisation qui devrait s’inscrire en outre dans un cadre juridique contraint et par ailleurs évolutif depuis quelques années.
Un cadre juridique et règlementaire précis et renforcé par l’AI ACT
En effet, le caractère très sensible des questions liées à l’IA est amplifié, à raison, lorsqu’il s’agit de sécurité publique, de surveillance et encore plus lorsque l’IA fait appel à de la biométrie. De nombreux travaux ont donc eu lieu pour avancer sur ces sujets, avec la CNIL, mais surtout, plus récemment au niveau européen. Ces travaux ont abouti à la mise en place de l’AI Act, qui fixe un cadre clair et précis pour l’usage de l’IA dans le secteur de la sécurité. Ce cadre européen est intéressant pour identifier des solutions autour de l’IA, qui permettront des gains opérationnels, tout en garantissant la protection des données et le bon usage des fichiers de police, qui sont autant de principes fondamentaux de notre société.
En France, un cadre protecteur avec la CNIL, des tentatives politiques pour avancer
« Livre blanc de la sécurité intérieure » , ministère de l’Intérieur et des Outre-mer [en ligne].
Avant l’AI Act, la CNIL a énoncé une série de recommandations précises14 afin de veiller à un déploiement de systèmes d’IA respectueux de la vie privée des individus notamment en matière de sécurité en suivant les dispositions de la loi Informatique et Libertés de 1978, et en intégrant une directive européenne de 2016 dite « Police-Justice15 ». Cette directive définit les règles relatives à la protection des personnes physiques à l’égard de logiciels informatiques (appelés par la CNIL « traitement des données à caractère personnel »), afin de prévenir et détecter des infractions pénales, de réaliser des enquêtes, de protéger et prévenir les menaces pour la sécurité publique. Les autorités publiques compétentes ou responsables des systèmes d’IA ont ainsi des obligations de transparence afin de rendre publiques les évaluations de ces systèmes. À cette transparence s’ajoute le principe fondamental, pour la CNIL, de la double proportionnalité. Elle doit permettre de s’assurer que l’usage de l’IA est justifié selon le cadre opérationnel (patrouille, enquête pour un délit, un crime ou une menace terroriste) et le type de données utilisées (données personnelles, statistiques, etc.). Pour la CNIL, il convient donc d’appliquer aux systèmes d’IA des règles calquées sur le droit commun des données (durées de conservation, contrôle indépendant…).
En parallèle, le ministère de l’Intérieur et le pouvoir législatif ont avancé sur cette ligne de crête tracée par la CNIL, pour formuler et encadrer par la loi, les cas d’usage pouvant justifier l’utilisation de l’IA dans le secteur de la sécurité, les mesures conservatoires associées et le cadre à respecter pour ces usages. On retrouve cette volonté dans le livre blanc de la sécurité intérieure rédigé par le ministère de l’Intérieur en 202016 et les travaux menés dans le cadre de la loi d’orientation et de programmation du ministère de l’Intérieur (LOPMI) promulguée en 202317. Un cadre avait été proposé dans la LOPMI, notamment pour permettre des expérimentations, en perspective des JO de Paris 2024 autour d’un environnement sécurisé : anonymisation des données collectées, stockage sur des espaces sécurisés, maintien d’une main humaine dans la prise de décision et le contrôle des technologies…
Un cadre européen strict avec l’AI Act
Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle) [en ligne].
Complétant ce cadre national, la Commission européenne a élaboré un règlement, l’AI Act, visant à encadrer l’utilisation et la commercialisation de l’IA en Europe et voté par le Parlement européen en décembre 202318. L’objectif est de garantir que les systèmes d’IA utilisés dans l’Union européenne soient sûrs, transparents, éthiques et sous contrôle humain. Les risques liés à l’IA sont hiérarchisés en plusieurs catégories, allant des risques minimes aux risques inacceptables. Une vigilance accrue est portée sur les IA génératives qui créent des textes, du code et des images soumises à des règles de transparence, de distinction entre les contenus libres ou soumis à propriété intellectuelle, et devront comporter des garanties contre la génération de contenus illicites. L’AI Act apporte, notamment, un cadre juridique précis concernant les usages dans la sphère publique, et en particulier pour ce qui concerne la sécurité :
– des IA sont interdites car dangereuses : identification biométrique dans les espaces publics, base de données de reconnaissance faciale (dont permettant une comparaison avec des données en open source), système de police prédictive ;
– des IA sont encadrées car à haut risque avec des documents techniques à fournir, un contrôle humain, des impératifs de déclaration de conformité, de l’évaluation continue : catégorisation biométrique, gestion de la migration ;
– des IA à risque limité sont permises mais avec obligation de transparence : détection d’objets, détection d’intrusion, de présence d’individus ou de véhicules dans une zone.
Il est à noter que l’AI Act octroie des exceptions, notamment dans le cadre d’opérations de maintien de l’ordre (manifestations, …), qui permettent la reconnaissance faciale « à distance » (avec caméra ou drone) autorisée « sous réserve d’une autorisation judiciaire préalable et pour des listes d’infractions strictement définies », et concernant « la recherche ciblée d’une personne condamnée ou soupçonnée d’avoir commis un crime grave ».
Un usage opérationnel réel et multiple au service des forces de sécurité intérieure
Dans ce cadre juridique précis, compte tenu des réflexions engagées par le ministère de l’Intérieur et du cadre législatif posé, il convient donc désormais de se projeter et de réfléchir sur les apports et bénéfices que l’IA pourrait amener dans les métiers de la sécurité intérieure, en s’appuyant sur les technologies existantes et en identifiant les conditions pour de tels usages : échanges et communications entre forces de sécurité intérieure, partage et accès à la donnée, simplification des tâches, analyse de la donnée dans les phases d’enquête…
Il est important de rappeler que les usages identifiés dans cette partie, le sont dans une démarche prospective, qui tient compte du cadre juridique et règlementaire évoqué précédemment, et s’inscrivent dans un usage de l’IA soucieux d’apporter une plus-value opérationnelle aux forces de sécurité intérieure tout en ne transigeant pas sur les enjeux éthiques de protection des données et autour d’un usage raisonné loin des pratiques de certains pays non européens qu’il convient à tout prix d’éviter pour préserver la singularité de notre modèle français.
L’IA doit venir en appui des forces de sécurité intérieure, mais elle ne doit pas devenir « l’agent », c’est-à-dire que les tâches qui pourraient être déléguées devront rester sous la primauté humaine, par le contrôle et la validation des forces de sécurité intérieure. Cette délégation doit ainsi accélérer l’action, la décision mais ne doit pas créer une dépendance. Il s’agit donc de bien identifier les cas d’usage sur les bons processus, notamment ceux à faible valeur ajoutée et de bien maintenir in fine la capacité de prise de décisions des forces de sécurité intérieure.
Optimiser les échanges et la communication
Dans un contexte sécuritaire dégradé, les enjeux autour de la communication et du partage de la donnée entre forces de sécurité intérieure sont essentiels, que ce soit au quotidien en patrouille, ou en intervention, au sujet des conduite à tenir (connaissance de la situation, des individus…) ou a fortiori en situation de crises et d’interventions majeures (attentats…).
Des cas d’usage précis, comme la capacité à centraliser puis à traiter les données issues des caméras-piétons portées par les forces de sécurité intérieure ou de vidéoprotection (vidéo, voix, radio, dialogues et appels entre forces de sécurité intérieure) ne sont pas aujourd’hui réalisables et pourraient l’être en s’appuyant sur des outils intégrant de l’IA, alors que le nombre de données collectées ne cesse de croître. Ces facilités permettraient d’être plus performants grâce à une proximité renforcée et une facilité à se projeter dans les situations opérationnelles.
Produire de la connaissance et éclairer l’action en temps réel
Produisant de plus en plus de données, notamment grâce à leurs objets connectés et à leurs outils mobiles professionnels, les forces de sécurité intérieure réalisent leurs missions dans un environnement où les données produites par des tiers sont de plus en plus nombreuses. Face à cette double évolution, une stratégie de valorisation de ces données avec l’IA pourraient être développée, combinant de l’analyse des données du passé, notamment des outils décisionnels (comme ceux qui existent déjà) mais aussi de l’enrichissement de l’information opérationnelle en temps réel (géolocalisation des patrouilles, notes d’analyse transmises par de l’IA générative…), le développement algorithmique et la valorisation de certaines données depuis l’extérieur (dans le respect des exigences posées par l’AI Act). On pourrait imaginer, par exemple, une analyse des données réelles des flux de personnes dans les différents réseaux de transports urbains d’une métropole dans le cas d’une mission d’interpellation ou en sécurité routière dans la gestion du trafic, en détectant instantanément les accidents ou les perturbations, facilitant ainsi des réponses immédiates et informées.
L’un des apports de l’IA est sa capacité à signaler automatiquement des incidents. Si des conditions ou des scénarios prédéfinis sont détectés, tels que des troubles publics ou des dangers pour la sécurité, un système d’IA peut générer automatiquement des rapports d’incidents détaillés et/ou envoyer des alertes aux forces de sécurité intérieure pour évaluer la situation. Cela accélère non seulement le processus de documentation, mais garantit également que même les infractions ou incidents mineurs (comme des incivilités ou des dégradations), qui pourraient être négligés dans une surveillance plus classique, soient remontés et traités.
De plus, la multiplication des données disponibles pourrait permettre de disposer en temps réel d’un nombre croissant d’informations. La situation tactique pourrait ainsi être enrichie par des données opérationnelles (géolocalisation des patrouilles, y compris de polices municipales, de sécurité privée, voire dans certains cas d’une personne ciblée par une enquête ou une intervention), des données de contexte (points d’intérêt, densité, état des réseaux…) et des données de capteurs (caméras piétons, détection d’anomalies, messages d’alerte multimédia envoyés par les usagers ou par des partenaires…). L’IA peut aller chercher ces données nombreuses et diverses, les structurer et les rendre en temps réel aux forces de sécurité intérieure sur le terrain en voie publique (communication type « push » automatique de données…).
L’enjeu dans ce cas est de bien définir les besoins et les cas d’usage pour disposer de données pertinentes, exploitables et de travailler à l’ergonomie (notamment par les outils cartographiques) ou à l’automatisation de la présentation des données dans les systèmes d’information (SI) utilisés par les forces de sécurité intérieure ou plus efficacement sur leurs outils mobiles.
Faciliter, accélérer et simplifier les tâches administratives et techniques
Dans le cas par exemple des amendes forfaitaires délictuelles rédigées sur les smartphones NEO via l’application Procès-Verbal électronique Section 9 : de la procédure de l’amende forfaitaire applicable à certains délits (Articles D45-3 à D45-21), Légifrance [en ligne].
Identification d’une partie spécifique ou d’un segment dans une masse de vidéos via des outils dits transformers.
Hormis pour certaines infractions pour lesquelles la garde à vue peut atteindre 96 heures (trafic de stupéfiants, terrorisme, association de malfaiteurs…), la durée maximale est de 24 heures. Elle peut être portée à 48 heures lorsque le délit ou le crime concerné est puni d’une peine supérieure à un an d’emprisonnement.
Comme le FPR (Fichier des personnes recherchées) ou le TAJ (Traitement des antécédents judiciaires).
Flux limités de données entre fichiers informatiques.
Les forces de sécurité intérieure déplorent que leur temps de travail soit de plus en plus consacré à des tâches administratives et rédactionnelles répétitives, lourdes et sans valeur ajoutée. L’apport de l’IA, pour ce type de tâches techniques, est déjà largement répandu dans d’autres secteurs d’activité notamment avec l’IA générative qui permet de la création active de contenus.
Ainsi, l’IA appliquée à ces tâches techniques, en les automatisant, pourrait permettre de faire gagner du temps dans les activités au quotidien sur ce même type de tâches et les recentrer ainsi sur leur cœur de métier afin de permettre plus de présence sur le terrain, afin de renforcer le lien avec la population, dissuader et prévenir des faits de délinquance. En effet, un des retours d’expérience des JO de Paris 2024 est que la présence massive et visible de forces de sécurité intérieure dans la rue a été non seulement efficace, mais aussi appréciée des populations.
a. Rédiger des procédures, collecter des informations
L’IA ouvre ainsi de nombreuses fonctionnalités pour faciliter voire supprimer des tâches répétitives et chronophages qui constituent le quotidien des forces de sécurité intérieure dans des procédures de verbalisation (rédaction de procès-verbaux…), d’interpellation, de prise de dépôt de plainte ou d’enquête. Sur des phases rédactionnelles et de transcription, l’IA pourrait permettre d’aller plus vite dans la rédaction de procès-verbaux que ce soit en unité ou en mobilité19 via de la génération automatisée de texte ou de propositions de texte (par exemple règlementaire), l’extraction d’informations d’intérêt dans des documents, l’accélération du traitement de bandes vidéo par élimination ou sélection de scènes sur requête sémantique, le masquage de passages, extraits ou parties de documents20.
L’usage de l’IA dans ce cadre se ferait sur la base de réseaux récurrents de neurones interprétant des flux de données et qui ont une mémoire des textes, des enchaînements de mots ou de phrases comme des réseaux de neurones biologiques mais avec une puissance de calcul multipliée, qui peut donc apporter de la valeur sur des activités rédactionnelles et de transcription. Afin de permettre aux forces de sécurité intérieure de travailler plus efficacement, l’IA pourrait également démultiplier l’efficacité d’outils déjà en place au ministère de l’Intérieur comme l’intégration du traitement du langage naturel dans les outils du quotidien (réalisation de rapports ou de procès-verbaux par commandes vocales, par exemple dans la rue). L’IA est ainsi un levier pour donner plus de temps aux forces de sécurité intérieure pour se concentrer sur des tâches à valeur ajoutée, en leur permettant par exemple pendant les temps de garde-à-vue de travailler un dossier, d’interroger un individu plutôt que de consacrer ce temps court21 à des actes administratifs et techniques.
b. Vérifier des faits, aider à la recherche de la vérité
Le recueil des déclarations, des témoignages, les différentes auditions constituent la base du travail d’investigation et bien souvent le premier pas dans la recherche des contradictions ou la vérification des faits. Plusieurs centaines de pièces viennent bien souvent enrichir un dossier. Ces pièces sont encore essentiellement transcrites par un enquêteur, mais de plus en plus fréquemment, ou lorsque cela est prévu par la loi, elles sont filmées et enregistrées. À terme, elles pourraient être automatiquement enregistrées et retranscrites par un système d’IA constituant des données pouvant ensuite être rapidement exploitées et confrontées par les forces de sécurité intérieure qui pourraient ainsi se concentrer sur l’analyse, la recherche de faits et leur vérification.
c. Rechercher des informations dans les SI et bases de données
L’IA pourrait aussi permettre de faciliter les travaux de recherche d’informations sur un individu ou un groupe d’individus interpellés ou recherchés. Ces phases de recherche sur des données biographiques, des antécédents judiciaires sont le quotidien des forces de sécurité intérieure et se font dans les différents fichiers de police mis à leur disposition22. Ces fichiers de police fonctionnement en silo et communiquent peu entre eux pour des raisons techniques et réglementaires, notamment dans le but de respecter les finalités de traitement de ces fichiers, conformément aux principes édictés par la CNIL. Ainsi, le partage d’informations entre les fichiers informatiques est limité à des interfaçages applicatifs23, et les forces de sécurité intérieure doivent souvent consulter un ou plusieurs systèmes en parallèle. Au regard de la profusion de données et du volume à analyser quotidiennement, l’IA pourrait permettre de résoudre la multiplication des interfaces et faciliter la vie des agents en leur apportant l’information agrégée. Cette capacité d’agrégation est un des apports majeurs de l’IA qu’il convient d’appréhender au regard du cadre juridique énoncé par la CNIL, mais qui peut permettre d’offrir la possibilité aux forces de sécurité intérieure de disposer plus facilement et plus rapidement des informations qu’ils recherchent, ce qui est crucial pour leur sécurité personnelle en cas d’interpellation sur la voie publique (disposer de l’information de la conduite à tenir rapidement vis-à-vis de l’individu interpellé) ou pour l’efficacité de leurs activités (garantie d’identifier la bonne personne par exemple dans le cas d’un contrôle).
d. Fiabiliser les fichiers de police et leurs usages
À côté de la consultation, une tache récurrente consiste à également « alimenter » les fichiers de police en informations sur des individus interpellés ou recherchés, avec des éléments descriptifs de faits, d’infractions, et surtout d’éléments d’informations sur les identités biographiques et biométriques. Cette phase est clé, notamment pour ce qui concerne l’acquisition de données biométriques, car elle préfigure ensuite de la qualité des bases de données et permet, dans le cas d’une infraction ou d’un crime, d’authentifier des individus interpellés mis en cause ou des individus victimes. L’IA peut ainsi identifier et mettre en évidence les minuties (points spécifiques sur une empreinte digitale) avec plus de précision que l’œil humain, conduisant à des comparaisons plus détaillées et précises.
L’interrogation des fichiers de police, comportant les bases de données d’empreintes digitales ou génétiques, pourrait aussi être automatisée avec l’IA ce qui permettrait d’aller plus vite et de fiabiliser les comparaisons. Par ailleurs, la mise en œuvre d’une automatisation des contrôles de qualité technique permettrait de sécuriser la qualité d’acquisition des données par une application d’aide à la prise de vue des empreintes et de détecter automatiquement les empreintes photos non conformes. De même, l’IA pourrait être bénéfique pour la prise en compte des empreintes digitales laissées involontairement sur des surfaces (dites « latentes ») qui peuvent être parfois partielles, floues ou de mauvaise qualité. L’IA pourraient combler les parties manquantes en se basant sur des motifs reconnus, permettant de meilleures correspondances.
Pour tirer profit des opportunités analytiques de l’IA
Le SOCMINT (Social Media Intelligence) est une sous-catégorie de l’OSINT (Open Source Intelligence) qui concerne la collecte et l’analyse d’informations issues des réseaux sociaux.
a. Travailler sur des grandes masses de données
L’IA offre des opportunités de calcul et d’automatisation de certaines tâches pour les forces de sécurité intérieure confrontées à des masses de données à traiter que ce soit dans des tâches administratives ou des activités de police judiciaire. Des agents du ministère de l’Intérieur ont par exemple la charge d’activités de « criblage » des personnes embauchées sur des métiers sensibles auprès de l’ensemble des SI à analyser pour « valider » la personne concernée. Sur ces activités d’analyse de masse sur des fichiers de données sécurisées, un apport de l’IA pour accélérer et fiabiliser les enquêtes pourrait amener de la valeur et concentrer l’œil humain sur l’essentiel ou lui permettre un contrôle et une validation in fine plus efficace.
Sur des phases d’enquête et d’investigation, il pourrait être également opportun de s’appuyer sur l’IA pour de la recherche de données et la comparaison avec des bases de données importantes, par exemple dans le cas d’élucidation de crimes avec la comparaison génétique et le fichier dédié des empreintes génétiques (FNAEG). L’analyse ADN est une des méthodes les plus employées par la police scientifique pour identifier l’auteur d’un crime. De plus, l’IA pourrait faciliter les enquêtes judiciaires où les pièces et les dossiers sont toujours plus volumineux et plus complexes. Devant la multiplicité et l’hétérogénéité des données, la puissance de calcul de l’IA peut permettre de mieux les classer, les lier entre elles et les mémoriser dans un délai très court. L’enquêteur pourrait donc voir, analyser et confronter plus rapidement, avec moins d’erreur.
Ensuite, la plupart des données d’une enquête judiciaire sont stockées sur des disques durs à des fins de conservation. Il est impossible de réaliser le tirage papier du contenu d’une clé usb (photos, documents, fichiers divers) ou de la mémoire d’un ordinateur. Des outils d’assistance à même de croiser et lier ces données sont nécessaires pour identifier des indices parmi les grandes masses de données disponibles. L’IA pourrait accomplir ce travail de classification et de connexions entre les faits et les indices, qui sont retrouvés dans les dossiers judiciaires. Un enjeu clé est la gestion de volumétrie de masse pour la donnée judiciaire, pour aller plus vite dans des processus d’enquête et d’investigation ou pour permettre une décision plus rapide sur la voie publique ou en intervention. Il s’agit, ici aussi, de bien définir les cas d’usage et d’entraîner au préalable les systèmes d’IA pour assurer une pertinence des analyses via de la génération de données synthétiques.
b. Mieux analyser et interpréter des images et des sons en grande quantité
L’IA introduit de nouvelles techniques qui permettent d’analyser et interpréter des images avec le développement génératif. Ces solutions pourraient permettre d’appuyer les phases d’enquête par l’analyse augmentée de photos de scènes de crime, d’accidents de la route ou d’images issues de centres de supervision urbain (CSU) et identifier ainsi des images d’intérêt. La vision par ordinateur, par l’utilisation de réseaux neuronaux permettant d’interpréter et d’analyser des informations visuelles complexes, peut aider à la détection de surfaces spécifiques à partir de photographies ou d’images satellites (parking, toitures, décharges sauvages, points de deal…) qui peuvent être utiles aux forces de sécurité intérieure pour identifier des véhicules recherchés, des points particuliers (trafic de drogues…).
L’IA peut en effet accélérer le processus d’analyse et de détection via des outils effectuant de l’analyse d’image et de l’analyse comportementale avec des algorithmes de réseau à convolution capables de repérer des objets, des faits ou des individus. Actuellement les techniques d’apprentissage permettent de retrouver la photo d’un individu, d’un objet, d’une arme parmi les milliers de photos contenues communément dans un ordinateur ou un téléphone. Les techniques d’apprentissage de l’IA dédiées à la reconnaissance d’objets ou de formes dans un contenu constitueraient un apport non négligeable.
Enfin, l’IA peut apporter beaucoup avec les technologies de reconnaissance vocale qui peuvent déchiffrer les caractéristiques vocales propres à chaque individu, convertir les mots parlés en modèles qui peuvent être exploités, et comparés à des empreintes vocales stockées (échantillons vocaux provenant d’appels téléphoniques ou d’enregistrements).
c. Mieux analyser et détecter rapidement
Le recueil d’information en source ouverte (OSINT, SOCMINT24) est une pratique désormais commune et répandue du fait de la multiplicité des données accessibles et disponibles notamment sur les réseaux sociaux.
L’appui de l’IA sur ces phases de recueil d’information en source ouverte est fondamental pour détecter et caractériser rapidement des situations de danger et d’urgence à une vitesse supérieure à celle de l’effacement par les délinquants de leurs traces numériques, ou pour réaliser, par exemple, de la veille pour analyser le « bruit informationnel » (web scraping), en intégrant le cadre fixé par l’AI Act, pour détecter et contrer de « la propagande » ou de la désinformation. En utilisant des algorithmes avancés d’IA et d’apprentissage automatique, il est possible d’analyser rapidement de vastes quantités de données pour identifier des motifs, des mots-clés ou des contenus visuels. De plus, les systèmes pilotés par l’IA peuvent être entraînés sur des matériaux de propagande ou de désinformation connus pour repérer de manière proactive de nouveaux contenus partageant des caractéristiques similaires et les signaler, assurant une suppression plus réactive et efficace de ces contenus avant qu’ils ne se propagent.
L’enjeu résidera, pour assurer l’efficacité de ces outils, d’être en capacité de gérer à grande échelle, des données structurées (mots, signes, chiffres…) et non structurées (images, sons, vidéos…), de disposer d’outils et de plateformes pour les gérer et les rendre exploitables grâce à des modèles d’apprentissage automatiques auto-apprenants, ces outils peuvent en effet reformater ces données non structurées. Les technologies d’analyse automatisée du langage écrit, qui reposent sur l’IA, permettent de procéder à de l’analyse et de l’extraction de contenus, et traitent des volumes d’informations qu’il serait hors de portée d’effectuer manuellement. Afin d’améliorer la gestion de l’alerte et la détection rapide de situations dangereuses non signalées aux centres opérationnels, il est possible d’expérimenter l’automatisation de la captation d’informations en sources ouvertes librement accessibles sur les réseaux sociaux.
L’IA peut enfin permettre une vitesse de réponse plus rapide, via l’apprentissage automatique par exemple : on donne une multitude de données à un système d’IA qui va apprendre, au fur et à mesure, à les traiter automatiquement. Grâce à cette technique, on peut suivre la trace du véhicule d’un auteur de crime en fuite à travers les caméras de surveillance, l’analyse des vidéos se fera plus rapidement qu’une analyse humaine qui peut alors se concentrer sur l’exploitation des données et le contrôle de l’usage. L’IA pourrait permettre d’appuyer des opérateurs d’un CSU dans leurs activités de verbalisation par vidéoprotection : détection de déchets, détection d’objets abandonnés, calcul du temps de présence d’un véhicule, stationnement près de lieux sensibles, passage aux feux rouges ou au stop, franchissement de lignes, détection de départs de feu, analyse de mouvements de foule, détection d’armes…
Augmenter les capacités d’enquête
Parmi les éléments d’enquêtes, les enquêteurs disposent souvent d’auditions, de relevés bancaires, téléphoniques, et des déclarations qui pourraient faire l’objet d’exploitation par des logiciels à base d’IA dédiés afin de relever des incohérences, à repositionner temporellement et géographiquement ou à générer des schémas relationnels. L’incrémentation de ces données à partir des documents papiers ou numériques est longue. Les outils de l’IA pourraient permettre de détecter ces éléments directement dans des textes, de les identifier et de les classer selon leur signification et de générer automatiquement des schémas relationnels. Le gain de temps et la souplesse d’emploi rendent l’intérêt de ces outils évident avec par exemple la capacité de procéder à des classements et des liens, en temps réel à partir d’enregistrements sonores ou numériques, à suggérer des questions qui appuieront le travail des enquêteurs pour leur permettre d’identifier et interpeller plus vite un suspect.
L’IA pourrait aussi permettre des détections en temps réel sur des flux très importants de faux documents et de fraudes, impossibles à réaliser pour les hommes en raison de leur ampleur. Ainsi, dans le domaine de la sécurité routière que ce soit pour lutter contre la fraude au permis de conduire, la fraude à l’assurance ou la fraude dans les démarches spécifiques et répétitives (fraudes liées à la désignation en cas d’amendes routières ou en cas de contestation d’amende, fraude à l’immatriculation, lutte contre les vols de véhicules…). Enfin, en utilisant des outils d’analyse pilotés par l’IA, les enquêteurs pourraient analyser des millions de transactions financières, détectant ainsi de nombreuses anomalies, telles que des mouvements de fonds suspects, pour identifier la fraude. Cela se traduirait concrètement par une capacité accrue à analyser et à comprendre les schémas criminels, à détecter des liens et faciliter par exemple la coopération internationale face à des réseaux mondialisés. Les démantèlements ces derniers temps d’outils de communication cryptée utilisés par des réseaux criminels (EncroChat,…) a montré le rôle clé de l’analyse de grands ensembles de données complexes.
Enfin, il peut être relevé que, dans la lignée des recommandations de la CNIL et de la règlementation européenne liée à l’AI Act, l’IA pourrait venir sécuriser les exploitations par les forces de sécurité intérieure d’images, de documents, de vidéos en automatisant le masquage de passages, extraits ou parties de documents afin de renforcer la protection des données personnelles et du respect de la vie privée. L’IA peut en effet détecter des éléments dans une donnée non structurée (comme une image) via des réseaux à convolution et opérer un filtre sur ce qui a été défini au préalable, comme étant à filtrer ou masquer. De même, l’IA pourrait offrir aussi la possibilité de mieux contrôler les cas de consultation anormale de fichiers de police par les forces de sécurité intérieure, grâce à la détection des connexions ou des usages détournés permettant ainsi à une direction centrale ou à une inspection de répondre plus rapidement à ces agissements.
Pour renforcer la prise en charge des victimes
Perceval (plateforme de signalement des fraudes à la carte bancaire), Pharos (plateforme de signalement de contenus illicites sur internet), THESEE (plateforme de signalement des e-escroqueries), PNAV (plateforme numérique de signalement des atteintes aux personnes et de l’accompagnement des victimes)…
Depuis quelques années, des plateformes numériques sont déployées par le ministère de l’Intérieur, permettant de signaler et déclarer des faits sur un site en ligne dédié et selon la nature du délit constaté, de procéder à un dépôt de plainte en ligne25. Ces plateformes numériques offrent des possibilités pour effectuer certaines démarches en ligne et sont un réel levier de développement des usages autour de la donnée non négligeable pour le ministère de l’Intérieur parce qu’ils offrent la possibilité de recueillir et d’exploiter des données sur des faits qui sont communiqués par des victimes sur ces sites26. Il s’agit d’une nouvelle source de données bien souvent structurées (mots, signes, chiffres) qu’il convient de développer et valoriser par de l’IA (cartographies des signalements, localisation de données sur la délinquance, types de faits par localisation…) pour les mettre à la disposition des policiers et des gendarmes sur le terrain (production de statistiques, communication…).
Pour faire évoluer la relation entre la police et la population
Sur la complexification d’un certain nombre de procédures et la bureaucratisation croissante du secteur privé, voir David Graeber, Bureaucratie, Paris, Les Liens qui Libèrent, 2015.
Cheryl Maxson, Karen Hennigan et David C. Sloane, Factors that Influence Public Opinion of the Police, NIJ Research for Practice, Washington (DC), National Institute of Justice, US Department of Justice, 2003.
L’IA pourrait aussi faciliter des démarches telles que les dépôts de plainte ou le renouvellement de titres administratifs en ayant recours à des robots conversationnels augmentés par l’IA afin de récupérer les informations essentielles dont ils ont besoin et obtenir le service attendu. En intégrant des capacités d’IA aux logiciels de saisie de plaintes, les forces de sécurité intérieure chargées de ces tâches pourraient améliorer la prise en charge, en la rendant plus rapide et plus efficace, grâce par exemple à une meilleure catégorisation des contentieux. Ainsi, les services de plainte en ligne existants peuvent être également améliorés, grâce à des possibilités offertes par l’IA, d’enregistrer automatiquement les plaintes et les analyser pour orienter les victimes vers les personnes compétentes et ainsi proposer la démarche la plus adaptée à l’événement (réponse automatisée avec récépissé de plainte, visioplainte avec un agent, rendez-vous physique dans un commissariat ou une brigade…).
Il est toutefois essentiel de considérer ces dispositifs de digitalisation de la relation police-population, à la lumière de la question plus générale de la confiance envers la police, qui est posée de manière récurrente en France. Cela implique de s’interroger sur la place des technologies dans le renforcement de la confiance ou, au contraire, de l’accentuation de la défiance entre policiers et citoyens. Leur pertinence devra être questionnée à l’heure où la population demande des contacts directs, dans un contexte où le monde s’est complexifié et où joindre un service client par exemple est devenu dans certains cas un « parcours du combattant27 ». L’automatisation peut ainsi faciliter un certain nombre de processus, mais elle se fait parfois au détriment de la pédagogie, du caractère redevable de ces services, du sentiment de sécurité qu’apporte la présence humaine et à l’établissement d’une relation de confiance. Or, l’un des déterminants majeurs de l’image que l’on se fait de la police réside dans le fait d’avoir eu une interaction positive avec elle28.
Recommandations : apprendre, tester et encadrer pour développer un modèle d’IA de confiance
James Q. Wilson, Varieties of Police Behavior. The Management of Law and Order in Eight Communities. Harvard, Harvard University Press, 1968.
Les retours d’expérience des JO de Paris 2024 et les développements récents appellent une nécessaire réflexion sur l’IA. En effet, le contexte sécuritaire dégradé au quotidien en France, les crises répétées des métiers de la sécurité de plus en plus complexes dans lesquels le numérique est toujours plus présent, impliquent de recourir aux outils disponibles comme l’IA, désormais capables d’aider à la résolution de situations et à apporter des réponses fortes pour permettre aux forces de sécurité intérieure de « faire face ».
L’IA n’est pas une fin en soi mais peut être un levier, comme le furent la biométrie ou le numérique, permettant d’améliorer le travail des forces de sécurité intérieure. L’enjeu est de franchir le pas pour aider les forces de sécurité intérieure et in fine améliorer la sécurité des Français.
Mais avec l’IA, ce seront surtout des métiers de la sécurité qui seront transformés, notamment dans les tâches quotidiennes. Pour permettre cela, il faut donc s’assurer :
– d’un cadre clair au niveau politique, à même de garantir et rassurer la population, et de stabiliser le cadre législatif (par exemple pour l’usage des caméras intelligentes au-delà du cadre expérimental prévu par la loi du 19 mai 2023) ;
– d’une doctrine au niveau du ministère de l’Intérieur pour conforter les forces de sécurité intérieure dans l’utilisation de telles technologies. En effet, leur ressenti ne doit pas être ignoré. La police prédictive avait ainsi soulevé un certain nombre de critiques, internes à l’institution policière. Les prédictions algorithmiques avaient été vues par les effectifs de voie publique comme une manière de dévaluer leur instinct professionnel, la « machine » se voyant accorder une plus grande pertinence que leur connaissance de la rue et portant atteinte à l’autonomie d’une profession dont le pouvoir discrétionnaire est une caractéristique centrale29. Il s’agit d’une question fondamentale pour garantir l’acceptation de ces mutations, qui ne peut se faire sans l’adhésion des personnels concernés ;
– de systèmes d’IA en capacité de limiter les vulnérabilités face aux risques cyber venant d’une délinquance organisée et aguerrie sur ce type de menaces ;
– d’une approche éthique afin de réfléchir systématiquement à l’importance des données sources et aux données manipulées, qui sont sensibles par nature et nécessitent de mettre en place des règles équilibrées autour des principes de maîtrise et de souveraineté, de sécurité, de transparence vis-à-vis de la société ;
– d’une approche souveraine pour s’appuyer sur des systèmes d’IA français ou européens, avec un modèle de financement qui assure la compétitivité des solutions et permette le développement de « champions » nationaux ou européens à l’instar de ce qui se fait dans le secteur de la défense. Dans un contexte budgétaire contraint, ces objectifs devraient être inscrits dans une nouvelle loi de programmation sur le modèle de la LOPMI 2023-2027, afin de fixer les moyens et engagements financiers associés. Une centaine de millions d’euros seraient à consacrer à ces objectifs ;
– de dispositifs d’évaluation pour mesurer l’efficacité et le rapport coûts/bénéfices de ces outils.
Aucun commentaire.