Un rapport sénatorial préconise de sécuriser les projets d’intelligence artificielle (IA)

Publié le 25 février 2025 à 10h00 - par

Pour servir l’intérêt général, l’IA doit être contrôlée par des humains, s’adapter à l’organisation administrative et à la tradition juridique et garantir le respect des droits et libertés, explique la délégation à la prospective du Sénat. Elle sera ainsi plus efficace, plus équitable et capable de s’adapter aux spécificités de chaque citoyen.

Un rapport sénatorial préconise de sécuriser les projets d'intelligence artificielle (IA)
© Par Jorge - stock.adobe.com

L’intelligence artificielle (IA) s’imposera bientôt dans les services publics et bouleversera les relations entre administration et usagers. Le gouvernement a annoncé le 6 février qu’il dotera d’ici fin 2025 les 5,7 millions d’agents d’un robot conversationnel (chatbot) pour les assister et les décharger de certaines fonctions, d’accueil et de gestion en particulier. De nombreuses collectivités lancent des projets d’IA dans tous les domaines, avec des usages variés : gestion administrative, relation aux usagers, sécurité, aménagement du territoire, tourisme… Dans cette optique, une série de rapports de la délégation à la prospective du Sénat apporte un éclairage intéressant. Dans le rapport thématique de 2024 « IA, terrioires et proximité », les rapporteurs Amel Gacquerre (Pas-de-Calais) et Jean-Jacques Michau (Ariège) rappellent que, si le potentiel de l’IA générative dans le secteur public est immense, elle « n’est qu’un outil, avec ses avantages, ses risques et ses limites ». L’utiliser au service de l’intérêt général implique la pleine confiance des agents, usagers et citoyens. Ainsi, une dizaine de propositions des sénateurs visent à améliorer la connaissance de l’IA et en minimiser les risques, afin qu’elle soit « un atout pour les services de proximité dans les territoires ».

Pour les sénateurs, trois principes devraient guider le déploiement de l’IA locale. En premier lieu, même s’il faudra mutualiser des projets, les acteurs locaux devront avoir une certaine autonomie pour définir et appliquer leur stratégie IA. Ensuite, elle ne pourra pas être imposée « par la force ou en secret ». Il conviendra d’expliquer l’IA et de débattre, en impliquant élus, citoyens et agents, pour contrer la méfiance et les craintes : déshumanisation, manipulation de données, fuite d’informations, atteintes à la vie privée… Enfin, elle devra être simplement un outil supplémentaire, aucune aide à la décision ne devant fonctionner de manière automatique et autonome. En d’autres termes, une personne physique devra toujours prendre la responsabilité de la décision. Les rapporteurs recommandent aussi d’informer systématiquement les usagers qu’ils sont en contact avec une machine et de leur permettre d’accéder à des interlocuteurs humains.

Le rapport fournit certaines consignes aptes à sécuriser les projets IA : référentiels de données numériques territoriales standardisées, clauses contractuelles de partage des données dans les contrats de DSP pour que les collectivités en soient propriétaires et puissent les utiliser librement, hébergement sur des plateformes européennes ou nationales très sécurisées, adoption d’outils adaptés aux besoins pour éviter l’impact sur l’environnement… Il préconise aussi de mutualiser les compétences locales en IA, de former les agents et les citoyens et d’anticiper la reconversion des agents dont les tâches seront automatisées. Il faudrait aussi associer les habitants aux choix stratégiques, directement et à travers leurs élus. Tout ceci supposant, bien entendu, que le territoire soit couvert en infrastructures numériques performantes.

Quoi qu’il en soit, Amel Gacquerre et Jean-Jacques Michau mettent en garde les collectivités : il faut « sortir de la fascination pour l’outil IA », qui « doit être mis au service d’un projet, d’un but défini de manière assez large : l’amélioration des services publics locaux ».

Sans compter que la vraie révolution, ce n’est pas l’outil IA mais ses applications, a expliqué Mountaha NDiyae, EMEA Director, Ecosystem Sales & Programs chez Hyland au Club de la presse informatique B2B (CPI-B2B), le 12 février 2025. « Vouloir faire des projets IA n’a pas de sens, {…} mieux vaut acheter des applications qui utilisent de l’IA ». Des sommes énormes sont dépensées dans des projets qui, parfois, pourraient s’appuyer sur des outils informatiques classiques préexistants…

Martine Courgnaud – Del Ry

Adopter une IA « frugale »

Sur Chat-GPT, une requête utilise dix fois plus d’énergie que sur Google. D’où l’importance de se tourner vers les technologies d’IA « frugale », qui limite la consommation de ressources et l’impact environnemental tout en maintenant des performances élevées. Par exemple : utiliser des modèles plus petits ou simplifiés pour accomplir des tâches spécifiques sans perte significative de précision, optimiser les algorithmes en supprimant notamment des paramètres ou des couches inutiles d’un réseau neuronal (pruning), utiliser des énergies propres, réutiliser des modèles pré-entraînés, développer des infrastructures locales pour limiter les transferts de données et les besoins en calcul…