De l'importance d'une stratégie nationale en IA : entretien avec Fabien Le Voyer et Karteek Alahari
Date:
Mis à jour le 18/02/2025
Fabien Le Voyer : Il faut se rappeler qu’Inria avait organisé, auprès de l’État, un premier sommet mondial en 2019. Beaucoup d’eau a coulé sous les ponts depuis et ce sommet va permettre à un écosystème d’acteurs - représentants des États, d’entreprises, des scientifiques, des acteurs de la société - de se rassembler et de dialoguer autour de l’impact de l’intelligence artificielle, ses opportunités, le besoin d’encadrement de la technologie, mais aussi les besoins de la communauté internationale, par exemple en termes d’accès au calcul, ou à certains modèles de langues et de données, notamment dans les pays du Sud.
Pour prendre un exemple concret, sur l’une des cinq thématiques du Sommet (Futur du travail, Innovation, Gouvernance, IA au service de l’intérêt général, Confiance), celle de la confiance et en particulier sur l’évaluation de l’IA, le Sommet permet à un certain nombre d’acteurs étatiques chargés d’identifier les risques inhérents au systèmes avancés d’IA, les AI Safety Institutes, de collaborer par les biais d’expérimentations conjointes entre différents pays, de partager des méthodes d’évaluation communes, d’appliquer des benchmarks sur un ensemble de modèles et d’interpréter les résultats conjointement, avec notamment une dimension multiculturelle, par exemple sur les biais. Ces expérimentations s’intègrent dans la dynamique des AI Safety Summits lancée au sommet international de Bletchley Park fin 2023 en Grande-Bretagne, dont l’AI Action Summit est la continuité. Cette discussion internationale sur l’évaluation et les risques est nécessaire, car elle permet d’aller vers une compréhension mutuelle des enjeux, mais également d’évoluer vers des référentiels communs à terme.
Nous travaillons depuis plus d’une année sur ces sujets avec d’autres acteurs publics, avec lesquels Inria a des accords bilatéraux depuis plusieurs années : le LNE (Laboratoire national d’essais), le PEReN (le pôle d’expertise sur la régulation numérique à Bercy, avec lequel travaille le projet RegalIA que dirige Benoît Rottembourg) et l’ANSSI. Le 31 janvier a été lancé officiellement, sous le pilotage de la DGE et du SGDSN (le Secrétariat général à la Sûreté et à la Défense Nationale), l’Institut national pour l’évaluation et la sécurité de l’IA (INESIA). Cet institut n’a pas de personnalité morale (on ne crée pas un nouvel objet) mais va nous permettre de travailler ensemble avec une stratégie commune pour répondre à la tous les enjeux. Il sera la contribution française au réseau des AI Safety Institutes, avec toutefois une différence majeure : l’INESIA s’inscrit dans un cadre règlementaire, l’AI Act (ou le RIA) et n’adresse ainsi pas uniquement les enjeux de sécurité de l’IA. Il a vocation à orienter ses activités de recherche et d’innovation sur un champ plus large : celui d’un ensemble de systèmes d’IA (et non pas uniquement les systèmes génératifs ou avancés), qui ont vocation à être réglementés par le RIA. Ce faisant, l’INESIA fournira des métriques, des méthodologies et des protocoles d’évaluation sur l’ensemble du champ d’obligations du règlement (Articles 8 à 15 sur fiabilité, robustesse, cybersécurité, transparence, etc.). Cet institut aura plusieurs missions : consolider un programme de recherche piloté par Inria, dans le cadre de l’Agence de programmes, et impliquant toute la communauté scientifique nationale sur les enjeux de l’évaluation de l’IA, appuyer le régulateur dans la mise en œuvre de l’AI Act, évaluer la performance et la fiabilité des systèmes et les comparer entre eux, en créant de nouveaux benchmarks lorsque c’est nécessaire, par exemple en langue française. Les thèmes qui seront abordés concernent de nombreux collègues, qu’ils soient dans des équipes-projets ou sur des fonctions liées au transfert ou au développement technologique : beaucoup, avec des collègues d’autres acteurs académiques (universités ou organismes), ont déjà été associés à la construction du Programme de l’Agence, et je les en remercie. C’est important que la recherche publique soit partie prenante d’une telle initiative car si on n’a pas accès au front de science et de technologie, il n’est pas possible d’avancer sur de tels sujets.
Fabien Le Voyer : D’abord, nous pouvons être fiers que le Comité scientifique de l’événement scientifique, qu’organise l’IPParis (via le IA Cluster Hi-Paris, dont Inria est membre), est présidé par Michael Jordan qui a rejoint Inria (équipe-projet SIERRA du Centre Inria de Paris), dans le cadre d’une chaire industrielle de la Fondation Inria.
Sur le plan institutionnel, Inria est présent à plusieurs titres : en tant que coordinateur du volet recherche de la stratégie nationale en IA (PNRIA), mais aussi en tant que coordinateur des acteurs de l’enseignement supérieur et de la formation, Inria a un rôle prépondérant dans l’organisation du sommet. Il va notamment valoriser les acteurs de l’ESR en IA - dont les 9 IA clusters sur l’évènement scientifique les 6 et 7 février à l’École Polytechnique. Nous avons aussi impulsé les évènements grand public qui sont organisés par les IA Clusters, avec une forte implication des Centres Inria, lors du week-end du 8 et 9 février. C’est aussi pour Inria le moment de souligner l’importance des objets nationaux de cette stratégie nationale en IA pilotés à son niveau, et qui s’insèrent au cœur des thématiques prioritaires du Sommet :
Au-delà des objets de la stratégie nationale en IA, de très nombreux scientifiques ont contribué à des initiatives et des livrables du Sommet (il me sera très difficile de ne pas en oublier) :
Enfin, Inria sera également présent sur les thématiques environnementales, notamment avec Jacques Sainte-Marie, avec la contribution au rapport sur l'alignement des défis techniques du hardware pour l’efficacité énergétique et l’économie circulaire et la participation au débat public IA organisé par le "Tribunal des générations futures".
Fabien Le Voyer : Le PMIA est une organisation internationale à présent rattachée à l’OCDE dont l’objectif est de fournir des projets concrets et actionnables pour la communauté internationale sur trois volets : science, solutions, standards. Il a été lancé en 2018 et l’ambition est de construire un réseau d’expertise analogue à celui qui travaille depuis des dizaines d’années pour le climat, l’IPCC/le GIEC. Nous travaillons ainsi avec des experts internationaux pour développer des fédérations de communautés, mais aussi pour contribuer au développement de solutions techniques pour la communauté internationale. Inria porte le Centre d’expertise de Paris, avec les deux autres centres de Tokyo et de Montréal. Les centres d’expertise du PMIA pilotent le déploiement d’une partie de ces projets : ils organisent, promeuvent, fédèrent.
Par ce rôle institutionnel, et en capitalisant notamment sur les liens scientifiques historiques d’Inria avec plusieurs partenaires internationaux, Inria permet donc à la recherche publique d’être active et non spectatrice de cette dynamique, aussi en appuyant la diplomatie numérique de la France. L’approche est multilatérale mais également bilatérale, comme l’illustre la création récente (en novembre 2024) du Centre binational franco-chilien en IA, que porte Inria Chile.
Fabien Le Voyer : L’État a confié à Inria la coordination en 2018 et cela s’accompagne aussi du pilotage d’objets nationaux, comme on vient de l’évoquer. A présent que les 3IA puis à présent les 9 IA Clusters sont bien installés dans le paysage, il devient important de renforcer également la coordination par Inria pour qu’il y ait une cohérence avec la stratégie nationale et la stratégie de chaque site universitaire, un IA Cluster étant porté par une université avec un consortium d’acteurs. Ce rôle de coordination est un enjeu important des années qui viennent et il bénéficie aussi des relations de confiance que nous avons construites avec les universités depuis 2019, avec les Centres Inria de l’Université. Parmi les objets nationaux, qui sont rassemblés au sein du Programme IA de l’Agence de programmes, je peux citer :
Karteek Alahari : Nous l’avons vu, l’évaluation de l’IA est un sujet central, exploré par plusieurs équipes de recherche un peu partout dans le monde, mais sans mouvement organisé. Chaque mois, des modèles sortent, et si nous ne sommes pas capables de les évaluer -en termes de risques, de limites, de problèmes de sécurité-, nous ne pourrons pas expliquer aux entreprises comme au grand public comment utiliser ces modèles et pourquoi les utiliser (ou non). La recherche doit s’organiser car, derrière les questions purement techniques, l’IA pose beaucoup de questions éthiques, et des questions de réglementations. Il y a également une demande des sociétés contemporaines de comprendre les enjeux de l’IA et donc une responsabilité, pour nous, d’en étudier les systèmes, les limites et les impacts sociétaux.
Inria, en tant qu’institut de recherche public, est un acteur neutre qui se doit de développer une forme de confiance numérique : nous avons vocation à travailler avec tous les acteurs possibles pour la sécurité et la connaissance desdits modèles.
Un autre sujet fait l’objet d’un positionnement fort d’Inria : la frugalité. Ces derniers jours, on a eu la preuve de la frugalité possible d’une IA puissante avec la sortie de DeepSeek. Frugalité des données, frugalité des calculs, etc… De plus en plus d’acteurs, dont Inria, prennent en main ces sujets. Il faut que le monde académique et le monde industriel puissent avancer avec peu de ressources, et créer des modèles performants bien que modestes en calcul et en données.
Karteek Alahari : Un des axes majeurs du PEPR IA est justement la frugalité des modèles d’IA. Beaucoup de nos équipes travaillent sur le sujet. Par exemple, le projet Sharp (équipe-projet Ockham au Centre Inria de Lyon avec l’ENS de Lyon, l’Université Claude Bernard et le CNRS) est axé sur la conception d’algorithmes d’optimisation et d’apprentissage intrinsèquement frugaux en ressources, tout en contrôlant mathématiquement leur performance et leur robustesse à l’erreur de modélisation.
Nous pouvons aussi citer l’équipe-projet Datamove, en partenariat avec l’Université Grenoble Alpes et l’IA Cluster MIAI, qui centre ses recherches sur l'optimisation des mouvements de données pour le calcul intensif, ces mouvements étant une source importante de consommation d’énergie pour le calcul intensif, et donc une cible pertinente pour améliorer le rendement énergétique des machines.
D’autres équipes travaillent plus précisément sur l’IA embarqué. Au Centre Inria de l’Université de Rennes, l’équipe-projet Taran est partie d’un postulat : la clé de l'amélioration durable des performances (vitesse et énergie) réside dans les calculateurs spécifiques à un domaine. Dans cette nouvelle ère, le processeur sera augmenté d'un ensemble d'accélérateurs matériels destinés à exécuter des tâches spécifiques de manière bien plus efficace qu’un processeur généraliste. Taran se concentre sur la conception d'accélérateurs qui seront économes en énergie et tolérants aux pannes.
L’équipe-projet Corse répond, quant à elle, au défi de la performance et de la consommation énergétique posés aujourd’hui par l’industrie de l’électronique, les compilateurs et supports d’exécution qui doivent évoluer et interagir.
Un autre sujet est central : l’impact des modèles d’IA qui sont disponibles à tous, citoyens, élèves, étudiants, etc, sur nos sociétés. C’est ce qu’étudie, par exemple, l’équipe-projet Flowers au Centre Inria de l’université de Bordeaux. Elle travaille sur l’utilisation d’outils d’IA générative comme ChatGPT dans les collèges : comment est-ce utilisé ? quels sont ses effets sur les méthodes et les résultats de l’apprentissage ? Il faut éduquer aux outils, mais aussi aux limites et aux dangers de ces outils. Deepseek semble rapide et frugal, mais il efface aussi les informations demandées sur les manifestations de la place Tian’anmen… Il nous faut de la recherche pour trouver un meilleur moyen d’informer le grand public, d’éduquer au décryptage des sources et des biais de l’IA. Et la création d’outils ne pourra d’ailleurs pas se faire sans la coopération des entreprises.
Karteek Alahari : Il existe déjà des initiatives. La première fut CLAIRE (devenue CAIRNE), confédération paneuropéenne d’une centaine de laboratoires de recherche et de scientifiques en intelligence artificielle en Europe, où Inria est associé à notre partenaire stratégique allemand, le DFKI. Un autre réseau d’excellence, ELLIS (European Laboratory for Learning and Intelligent Systems), se concentre sur la science fondamentale, l’innovation et les impacts sociétaux de l’IA.
Ces deux réseaux ont obtenu des résultats : à côté des événements grand public qu’ils ont organisés, les conférences scientifiques ont permis de créer plusieurs communautés de partage des connaissances, et un réseau efficace de doctorants et doctorantes. C’est peut-être le plus important : il faut toucher les jeunes qui feront l’IA de demain.
Une autre initiative importance au niveau européen est Adra-e, pour constituer un écosystème entre acteurs de l’IA, de la Data science et de la robotique, pour lequel Inria est en charge de la coordination.
Dans chaque domaine de l’IA, comme en robotique ou en traitement automatique des langues, les liens se tissent par les grandes conférences scientifiques qui sont primordiales. On ne peut pas évaluer, modéliser, normer, éduquer sans prendre en compte l’écosystème du numérique, au niveau national comme international.