Intelligence artificielle

De l'importance d'une stratégie nationale en IA : entretien avec Fabien Le Voyer et Karteek Alahari

Date:

Mis à jour le 18/02/2025

Le sommet pour l’action sur l’intelligence artificielle a lieu à Paris du 6 au 11 février 2025. L’occasion pour Inria, coordinateur du volet « enseignement supérieur et recherche » de la stratégie nationale en IA, de rappeler l’importance de la recherche publique dans la réflexion et les projets que doivent mener les différents acteurs internationaux sur les atouts et les risques des systèmes d’IA. Fabien Le Voyer, directeur du Programme IA, et Karteek Alahari, adjoint au directeur scientifique en charge de l’IA, évoquent tous deux l’importance et les enjeux de ce sommet ainsi que les projets pilotés par Inria et ses partenaires y répondant.
Lancement de l'initiative P16 en 2024
Lancement de l'initiative P16 en 2024 / © Inria / Photo B. Fourrier

Pourquoi ce sommet est-il important ?

Fabien Le Voyer : Il faut se rappeler qu’Inria avait organisé, auprès de l’État, un premier sommet mondial en 2019. Beaucoup d’eau a coulé sous les ponts depuis et ce sommet va permettre à un écosystème d’acteurs - représentants des États, d’entreprises, des scientifiques, des acteurs de la société - de se rassembler et de dialoguer autour de l’impact de l’intelligence artificielle, ses opportunités, le besoin d’encadrement de la technologie, mais aussi les besoins de la communauté internationale, par exemple en termes d’accès au calcul, ou à certains modèles de langues et de données, notamment dans les pays du Sud.

Pour prendre un exemple concret, sur l’une des cinq thématiques du Sommet (Futur du travail, Innovation, Gouvernance, IA au service de l’intérêt général, Confiance), celle de la confiance et en particulier sur l’évaluation de l’IA, le Sommet permet à un certain nombre d’acteurs étatiques chargés d’identifier les risques inhérents au systèmes avancés d’IA, les AI Safety Institutes, de collaborer par les biais d’expérimentations conjointes entre différents pays, de partager des méthodes d’évaluation communes, d’appliquer des benchmarks sur un ensemble de modèles et d’interpréter les résultats conjointement, avec notamment une dimension multiculturelle, par exemple sur les biais. Ces expérimentations s’intègrent dans la dynamique des AI Safety Summits lancée au sommet international de Bletchley Park fin 2023 en Grande-Bretagne, dont l’AI Action Summit est la continuité. Cette discussion internationale sur l’évaluation et les risques est nécessaire, car elle permet d’aller vers une compréhension mutuelle des enjeux, mais également d’évoluer vers des référentiels communs à terme.

Nous travaillons depuis plus d’une année sur ces sujets avec d’autres acteurs publics, avec lesquels Inria a des accords bilatéraux depuis plusieurs années : le LNE (Laboratoire national d’essais), le PEReN (le pôle d’expertise sur la régulation numérique à Bercy, avec lequel travaille le projet RegalIA que dirige Benoît Rottembourg) et l’ANSSI. Le 31 janvier a été lancé officiellement, sous le pilotage de la DGE et du SGDSN (le Secrétariat général à la Sûreté et à la Défense Nationale), l’Institut national pour l’évaluation et la sécurité de l’IA (INESIA). Cet institut n’a pas de personnalité morale (on ne crée pas un nouvel objet) mais va nous permettre de travailler ensemble avec une stratégie commune pour répondre à la tous les enjeux. Il sera la contribution française au réseau des AI Safety Institutes, avec toutefois une différence majeure : l’INESIA s’inscrit dans un cadre règlementaire, l’AI Act (ou le RIA) et n’adresse ainsi pas uniquement les enjeux de sécurité de l’IA. Il a vocation à orienter ses activités de recherche et d’innovation sur un champ plus large : celui d’un ensemble de systèmes d’IA (et non pas uniquement les systèmes génératifs ou avancés), qui ont vocation à être réglementés par le RIA. Ce faisant, l’INESIA fournira des métriques, des méthodologies et des protocoles d’évaluation sur l’ensemble du champ d’obligations du règlement (Articles 8 à 15 sur fiabilité, robustesse, cybersécurité, transparence, etc.). Cet institut aura plusieurs missions : consolider un programme de recherche piloté par Inria, dans le cadre de l’Agence de programmes, et impliquant toute la communauté scientifique nationale sur les enjeux de l’évaluation de l’IA, appuyer le régulateur dans la mise en œuvre de l’AI Act, évaluer la performance et la fiabilité des systèmes et les comparer entre eux, en créant de nouveaux benchmarks lorsque c’est nécessaire, par exemple en langue française. Les thèmes qui seront abordés concernent de nombreux collègues, qu’ils soient dans des équipes-projets ou sur des fonctions liées au transfert ou au développement technologique : beaucoup, avec des collègues d’autres acteurs académiques (universités ou organismes), ont déjà été associés à la construction du Programme de l’Agence, et je les en remercie. C’est important que la recherche publique soit partie prenante d’une telle initiative car si on n’a pas accès au front de science et de technologie, il n’est pas possible d’avancer sur de tels sujets.

Comment Inria va-t-il contribuer au sommet ?

Fabien Le Voyer : D’abord, nous pouvons être fiers que le Comité scientifique de l’événement scientifique, qu’organise l’IPParis (via le IA Cluster Hi-Paris, dont Inria est membre), est présidé par Michael Jordan qui a rejoint Inria (équipe-projet SIERRA du Centre Inria de Paris), dans le cadre d’une chaire industrielle de la Fondation Inria. 

Sur le plan institutionnel, Inria est présent à plusieurs titres : en tant que coordinateur du volet recherche de la stratégie nationale en IA (PNRIA), mais aussi en tant que coordinateur des acteurs de l’enseignement supérieur et de la formation, Inria a un rôle prépondérant dans l’organisation du sommet. Il va notamment valoriser les acteurs de l’ESR en IA - dont les 9 IA clusters sur l’évènement scientifique les 6 et 7 février à l’École Polytechnique. Nous avons aussi impulsé les évènements grand public qui sont organisés par les IA Clusters, avec une forte implication des Centres Inria, lors du week-end du 8 et 9 février. C’est aussi pour Inria le moment de souligner l’importance des objets nationaux de cette stratégie nationale en IA pilotés à son niveau, et qui s’insèrent au cœur des thématiques prioritaires du Sommet :

  • Dans l’axe Futur du Travail, le LaborIAla structure conjointe entre Inria et le ministère du Travail et de l’Emploi étudie l’impact de l’IA sur l’avenir du travail, notamment en accompagnant des structures publiques dans le déploiement de systèmes d’IA, ou en analysant son impact sur des métiers ciblés. C’est évidemment aussi lié à l’ouverture d’Inria aux SHS, une priorité de notre COMP. Au-delà du niveau national, le LaborIA prend sa part dans la dynamique internationale du Sommet, puisqu’un réseau international de laboratoires sur IA et travail sera lancé pour impulser des investigations de terrain dans différents pays pour qualifier cet impact.
  • S’agissant de la Gouvernance, Inria porte le Centre d’expertise d’un réseau de trois Centres conduisant des travaux du Partenariat mondial pour l’IA (PMIA) en étroite coopération avec le CEIMIA à Montréal et le NICT à Tokyo, un partenaire majeur d’Inria au Japon : ce Sommet sera l’occasion de rassembler largement (représentants étatiques, et experts internationaux, institutions internationales) autour de nouveaux projets communs, comme par exemple sur la propriété intellectuelle et l’IA générative, ou ce que l’on appelle « l’IA agentique », avec des agents plus « autonomes ».
  • Dans l’axe Confiance, Inria, par le biais de l’Institut national pour l’évaluation et la sécurité de l’IA (INESIA), que l’on vient d’évoquer, a également contribué à la rédaction d’un rapport sur les risques de l’IA en matière de cybersécurité et publiera un leaderboard, avec la coordination nationale en IA, HugginFace, le GENCI et le LNE, intégrant des benchmarks inédits en langue française. Dans le jargon de l’IA, un learderboard permet de donner des résultats de comparaison de performance des modèles. L’un des benchmarks intégrera notamment des questions des jeux de données d’évaluation issus du baccalauréat, dans le but de comparer les performances des LLM en langue française.

Au-delà des objets de la stratégie nationale en IA, de très nombreux scientifiques ont contribué à des initiatives et des livrables du Sommet (il me sera très difficile de ne pas en oublier) :

  • Dans l’axe Innovation, Inria participe à un Challenge conjoint avec notre spin-off Probabl. pour certifier les compétences des data scientists des administrations publiques sur la librairie logicielle scikit-learn.
  • Dans l’axe IA au service de l’intérêt général, nous pouvons citer, entre autres, la valorisation des archives ouvertes de logiciels libres dans le contexte de l’IA générative autour de Software Heritage.

Enfin, Inria sera également présent sur les thématiques environnementales, notamment avec Jacques Sainte-Marie, avec la contribution au rapport sur l'alignement des défis techniques du hardware pour l’efficacité énergétique et l’économie circulaire et la participation au débat public IA organisé par le "Tribunal des générations futures".

Qu'est-ce que le Partenariat mondial pour l’IA (PMIA) et quel rôle y joue Inria ?

Fabien Le Voyer : Le PMIA est une organisation internationale à présent rattachée à l’OCDE dont l’objectif est de fournir des projets concrets et actionnables pour la communauté internationale sur trois volets : science, solutions, standards. Il a été lancé en 2018 et l’ambition est de construire un réseau d’expertise analogue à celui qui travaille depuis des dizaines d’années pour le climat, l’IPCC/le GIEC. Nous travaillons ainsi avec des experts internationaux pour développer des fédérations de communautés, mais aussi pour contribuer au développement de solutions techniques pour la communauté internationale. Inria porte le Centre d’expertise de Paris, avec les deux autres centres de Tokyo et de Montréal. Les centres d’expertise du PMIA pilotent le déploiement d’une partie de ces projets : ils organisent, promeuvent, fédèrent. 

Par ce rôle institutionnel, et en capitalisant notamment sur les liens scientifiques historiques d’Inria avec plusieurs partenaires internationaux, Inria permet donc à la recherche publique d’être active et non spectatrice de cette dynamique, aussi en appuyant la diplomatie numérique de la France. L’approche est multilatérale mais également bilatérale, comme l’illustre la création récente (en novembre 2024) du Centre binational franco-chilien en IA, que porte Inria Chile.

Au-delà des objets nationaux déjà cités, quels sont les principaux résultats du volet recherche de la stratégie nationale en IA qu’Inria pilote ?

Fabien Le Voyer : L’État a confié à Inria la coordination en 2018 et cela s’accompagne aussi du pilotage d’objets nationaux, comme on vient de l’évoquer. A présent que les 3IA puis à présent les 9 IA Clusters sont bien installés dans le paysage, il devient important de renforcer également la coordination par Inria pour qu’il y ait une cohérence avec la stratégie nationale et la stratégie de chaque site universitaire, un IA Cluster étant porté par une université avec un consortium d’acteurs. Ce rôle de coordination est un enjeu important des années qui viennent et il bénéficie aussi des relations de confiance que nous avons construites avec les universités depuis 2019, avec les Centres Inria de l’Université. Parmi les objets nationaux, qui sont rassemblés au sein du Programme IA de l’Agence de programmes, je peux citer :

  • Dans le cadre de la politique industrielle de l’État, l’initiative P16 intervient en appui au déploiement de scikit-learn, l’une des librairies logicielles les plus utilisées dans le monde. Elle se développe aussi avec la création d’une startup spin-off d’Inria, Probabl, dont la mission d’intérêt public vise à moderniser scikit-learn et à l’orienter sur les pratiques des entreprises. P16 identifie en complément un ensemble de librairies logicielles sur le cycle de vie de la donnée en amont de son traitement par l’IA (interopérabilité, préparation, nettoyage, etc.), qui seront maintenues et consolidées dans un commun numérique souverain pour l’IA complet et aligné avec les besoins des entreprises.
  • Le PEPR IA, qu’Inria copilote avec le CEA et le CNRS dans le cadre du plan d’investissement « France 2030 » est un programme de recherche qui soutient des projets et des chaires dans des domaines de l’IA de confiance, de l’IA frugale ou encore sur les fondements mathématiques de l’IA.
  • Le projet RegalIA, sur la transparence des algorithmes, lancé depuis 2020, fournit des algorithmes, des données et des outils logiciels pour identifier les comportements des algorithmes utilisés par les grandes plateformes numériques (Amazon, Booking.com, Airbnb, etc.), en particulier pour tout ce qui concerne le pricing et le référencement d’offres. Il est sollicité par un ensemble d’autorités publiques, comme par exemple la Cour des Comptes, pour fournir une expertise visant à qualifier les pratiques de ces algorithmes et il travaille aussi avec le PeREN, le pôle d’expertise sur la régulation dans le numérique, à Bercy.
  • Afin de faciliter l’accès aux capacités de calcul européennes en particulier pour les entreprises, Inria vient tout juste de consolider avec le GENCI la réponse française  à l’appel européen des AI Factories, qui vise à centraliser un dispositif unique pour l’ensemble des acteurs (entreprises, acteurs de la recherche, administrations) ayant des besoins d’accéder à des quotas d’heures de calcul. La valeur ajoutée est de pouvoir accéder à l’ensemble des capacités de calcul européennes soutenues par EuroHPC, mais également d’accéder à un ensemble de services : en IA, en cloud, sur l’accès à des bases de données et sur la préparation des données. 

Dans le domaine de l’IA, quels sont les thèmes sur lesquels Inria peut peser ou lever des verrous scientifiques ?

Karteek Alahari : Nous l’avons vu, l’évaluation de l’IA est un sujet central, exploré par plusieurs équipes de recherche un peu partout dans le monde, mais sans mouvement organisé. Chaque mois, des modèles sortent, et si nous ne sommes pas capables de les évaluer -en termes de risques, de limites, de problèmes de sécurité-, nous ne pourrons pas expliquer aux entreprises comme au grand public comment utiliser ces modèles et pourquoi les utiliser (ou non). La recherche doit s’organiser car, derrière les questions purement techniques, l’IA pose beaucoup de questions éthiques, et des questions de réglementations. Il y a également une demande des sociétés contemporaines de comprendre les enjeux de l’IA et donc une responsabilité, pour nous, d’en étudier les systèmes, les limites et les impacts sociétaux. 

Inria, en tant qu’institut de recherche public, est un acteur neutre qui se doit de développer une forme de confiance numérique : nous avons vocation à travailler avec tous les acteurs possibles pour la sécurité et la connaissance desdits modèles.

Un autre sujet fait l’objet d’un positionnement fort d’Inria : la frugalité. Ces derniers jours, on a eu la preuve de la frugalité possible d’une IA puissante avec la sortie de DeepSeek. Frugalité des données, frugalité des calculs, etc… De plus en plus d’acteurs, dont Inria, prennent en main ces sujets. Il faut que le monde académique et le monde industriel puissent avancer avec peu de ressources, et créer des modèles performants bien que modestes en calcul et en données.

Quels sont les modes d'action d'Inria sur ces deux pans de l’IA ?

Karteek Alahari : Un des axes majeurs du PEPR IA est justement la frugalité des modèles d’IA. Beaucoup de nos équipes travaillent sur le sujet. Par exemple, le projet Sharp (équipe-projet Ockham au Centre Inria de Lyon avec l’ENS de Lyon, l’Université Claude Bernard et le CNRS) est axé sur la conception d’algorithmes d’optimisation et d’apprentissage intrinsèquement frugaux en ressources, tout en contrôlant mathématiquement leur performance et leur robustesse à l’erreur de modélisation. 

Nous pouvons aussi citer l’équipe-projet Datamove, en partenariat avec l’Université Grenoble Alpes et l’IA Cluster MIAI, qui centre ses recherches sur l'optimisation des mouvements de données pour le calcul intensif, ces mouvements étant une source importante de consommation d’énergie pour le calcul intensif, et donc une cible pertinente pour améliorer le rendement énergétique des machines.

D’autres équipes travaillent plus précisément sur l’IA embarqué. Au Centre Inria de l’Université de Rennes, l’équipe-projet Taran est partie d’un postulat : la clé de l'amélioration durable des performances (vitesse et énergie) réside dans les calculateurs spécifiques à un domaine. Dans cette nouvelle ère, le processeur sera augmenté d'un ensemble d'accélérateurs matériels destinés à exécuter des tâches spécifiques de manière bien plus efficace qu’un processeur généraliste. Taran se concentre sur la conception d'accélérateurs qui seront économes en énergie et tolérants aux pannes. 

L’équipe-projet Corse répond, quant à elle, au défi de la performance et de la consommation énergétique posés aujourd’hui par l’industrie de l’électronique, les compilateurs et supports d’exécution qui doivent évoluer et interagir.

Un autre sujet est central : l’impact des modèles d’IA qui sont disponibles à tous, citoyens, élèves, étudiants, etc, sur nos sociétés. C’est ce qu’étudie, par exemple, l’équipe-projet Flowers au Centre Inria de l’université de Bordeaux. Elle travaille sur l’utilisation d’outils d’IA générative comme ChatGPT dans les collèges : comment est-ce utilisé ? quels sont ses effets sur les méthodes et les résultats de l’apprentissage ? Il faut éduquer aux outils, mais aussi aux limites et aux dangers de ces outils. Deepseek semble rapide et frugal, mais il efface aussi les informations demandées sur les manifestations de la place Tian’anmen…  Il nous faut de la recherche pour trouver un meilleur moyen d’informer le grand public, d’éduquer au décryptage des sources et des biais de l’IA. Et la création d’outils ne pourra d’ailleurs pas se faire sans la coopération des entreprises.

Existe-t-il un réseau scientifique international en IA ? Comment se développe-t-il ?

Karteek Alahari : Il existe déjà des initiatives. La première fut CLAIRE (devenue CAIRNE), confédération paneuropéenne d’une centaine de laboratoires de recherche et de scientifiques en intelligence artificielle en Europe, où Inria est associé à notre partenaire stratégique allemand, le DFKI. Un autre réseau d’excellence, ELLIS (European Laboratory for Learning and Intelligent Systems), se concentre sur la science fondamentale, l’innovation et les impacts sociétaux de l’IA.

Ces deux réseaux ont obtenu des résultats : à côté des événements grand public qu’ils ont organisés, les conférences scientifiques ont permis de créer plusieurs communautés de partage des connaissances, et un réseau efficace de doctorants et doctorantes. C’est peut-être le plus important : il faut toucher les jeunes qui feront l’IA de demain. 

Une autre initiative importance au niveau européen est Adra-e, pour constituer un écosystème entre acteurs de l’IA, de la Data science et de la robotique, pour lequel Inria est en charge de la coordination.

Dans chaque domaine de l’IA, comme en robotique ou en traitement automatique des langues,  les liens se tissent par les grandes conférences scientifiques qui sont primordiales. On ne peut pas évaluer, modéliser, normer, éduquer sans prendre en compte l’écosystème du numérique, au niveau national comme international.

AI’m in FRANCE : why choose France for research ?