Changed on 05/02/2025

Piloté par le secrétariat général de la défense et de la sécurité nationale (SGDSN) au nom du Premier ministre et par la Direction générale des Entreprises (DGE) du ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique, cet institut, qui n’a pas de personnalité morale, permettra de fédérer l’action de 4 organisations publiques aux compétences complémentaires : l’Agence nationale de la sécurité des systèmes d'information (ANSSI), le Laboratoire National de Métrologie et d’Essais (LNE), le Pôle d’expertise de la régulation numérique (PEReN) et Inria. Le travail de l’institut portera sur l'analyse des risques systémiques dans le champ de la sécurité nationale, le soutien à la mise en œuvre de la régulation de l'IA, et l'évaluation de la performance et de la fiabilité des modèles d'IA.

Fédérer l’écosystème pour un IA de confiance en France et en Europe

La création de l’INESIA se fait dans le prolongement du sommet de Bletchley Park sur l’IA, organisé par la Grande Bretagne fin 2023, et qui a donné naissance au réseau des AI Safety Institutes nationaux. L’institut a néanmoins un positionnement différent de celui des autres AI Safety Institutes puisqu’il est le seul à être missionné par « son » État dans le contexte d'un cadrage règlementaire (le « AI Act ») qui s'appliquera sur l'ensemble de l’Union Européenne, pour certains systèmes d'IA, et qui est actuellement en cours d'application progressive (l'application complète est prévue en août 2026). Au-delà des enjeux de sécurité auxquels les dénominations des AI Safety Institutes font référence, l'INESIA fournit une expertise et des méthodologies d'évaluation à la fois sur l'ensemble des systèmes d'IA, mais plus précisément sur l'ensemble des critères relatifs aux obligations de l'AI Act (notamment les articles 8 à 15 sur la fiabilité, la robustesse, la transparence, la supervision humaine, la gouvernance de la donnée, etc.). Dans ce cadre, les interactions avec le AI Office européen (l'autorité de la Commission européenne chargée de contrôler l'applicabilité du règlement) seront constantes.

Les missions de l’INESIA : appuyer la régulation, identifier les risques, assurer la fiabilité sur la base du front de science et de technologie

L’Institut, fonctionnant avec un écosystème d’acteurs comme d’utilisateurs publics et privés, s’articulera en trois pôles : 

  • Le premier pôle forme un appui au régulateur, en particulier les autorités de surveillance de marché qui auront la tâche d'évaluer si un produit ou un service est conforme à la réglementation européenne, l'AI Act. Il travaillera de manière étroite avec l'AI Office.
  • Le second pôle, « Risques systémiques de modèles avancés », vise à fournir un travail de recherche de pointe, en impliquant la communauté académique nationale, afin d'identifier les risques inhérents aux systèmes avancés, notamment ceux mis en accessibilité grand public. Il sera chargé de déterminer notamment les usages malveillants potentiels ou leur vulnérabilité en cas de cyberattaque. Ce pôle s'appuiera donc bien évidemment sur les travaux de l’International Scientific Report on the Safety of Advanced AI. ll prendra part aux travaux internationaux en la matière à travers le réseau des AISI (AI Safety Institutes).
  • Le troisième pôle se concentre sur les enjeux de performance et de fiabilité des systèmes, et pourra se décliner par le biais de Challenges qui mettront en compétition différents producteurs de modèles (entreprises, équipes de recherche, etc.) pour évaluer leur performance en matière de sécurité mais aussi de frugalité.

Les quatre acteurs travaillent ensemble pour constituer une feuille de route depuis plusieurs mois et Inria a déjà des accords bilatéraux avec chacun d’entre eux, depuis plusieurs mois ou années. Par ailleurs, un Programme de l’Agence de programmes dans le numérique, dédié aux sujets de l’INESIA, a été construit en 2024, pour impliquer l’ensemble de la recherche publique.