IA : bâtir la confiance et garantir la souveraineté
Date:
Mis à jour le 10/11/2021
Je définirais l’intelligence artificielle (IA) comme l’automatisation de processus que nous, humains, percevons comme intelligents : déduire, apprendre, lire, imaginer, parler, reconnaître, composer, rédiger, coopérer, mentir, résoudre, explorer, etc. Les dernières avancées de l’IA apportent de formidables capacités pour nos applications, comme la capacité à prédire un phénomène et la capacité à s’entraîner à une tâche, par exemple.
Tout le monde a entendu parler des techniques d’apprentissage automatique – et des fameux réseaux de neurones artificiels – qui ont connu des développements et des succès fulgurants ces dernières années, mais l’IA ne se limite pas à cette seule approche et exploite une grande variété de méthodes. Elle s’inscrit dans des domaines plus vastes, les sciences du numérique, en particulier l’informatique mais aussi les mathématiques, dont l’ensemble des avancées la nourrissent.
Toute entité (entreprise, commerce, collectivité, etc.) qui produit, se procure ou détient des données peut bénéficier des avancées de l’IA, laquelle permet de les améliorer, les analyser, les interpréter afin de prédire et de décider. Optimiser la gestion de l’énergie en prédisant la consommation, améliorer les soins et traitements en apprenant à les adapter à chaque patient, analyser des images satellitaires pour comprendre, suivre et prédire les phénomènes environnementaux ou les activités de l’agriculture, etc. : les applications de l’IA concernent ou concerneront pratiquement tous les aspects de nos vies, ce qui présente autant d’opportunités que de risques.
Toute technique possède un caractère dual et l’IA n’échappe pas à cette règle ! La vulnérabilité potentielle de systèmes informatiques face à des attaques exploitant des algorithmes qui apprennent de leurs échecs est devenu un sujet stratégique majeur. Nous pouvons également nous trouver vulnérables devant la formidable capacité prédictive des algorithmes, qui deviennent des outils de manipulation et d’exploitation potentielle des usages du numérique : ce qui est prédictible devient potentiellement manipulable et entraîne alors des pertes de liberté(s)…
Je pense qu’élaborer des méthodes d’IA techniquement robustes et auditables, avec un but éthique et documenté, sont les deux enjeux majeurs actuels. La conception de méthodes d’intelligence artificielle « dignes de confiance » pose de nombreuses questions scientifiques, visant à renforcer la capacité des humains à agir de concert avec elle. Les recherches dans cette direction visent à pouvoir obtenir des explications sur une conclusion, une prédiction ou une suggestion opérée par une IA, auditer tous les éléments des solutions des algorithmes face aux données, ou intégrer des mécanismes permettant la contestation, le retour et la correction par les utilisateurs.
Bâtir la confiance en l’IA suppose aussi de se doter d’un projet social, politique et moral en regard des projets scientifiques que nous développons. Dès les phases de conception, le travail en IA doit être centré sur l’humain, son bien-être et ses droits, et sur les caractéristiques nécessaires à cela : la robustesse, la sécurité, la transparence et l’équité. Outre les enjeux techniques que j’ai évoqués précédemment, se posent aussi des questions plus larges, comme poser un cadre éthique, former aux capacités et limites des systèmes, ou en réguler les usages, etc.
Atteindre une robustesse technique sans renoncer aux exigences éthiques nécessite souvent de trouver un équilibre, souvent délicat, entre des caractéristiques contraires ! Par exemple, accroître la transparence d’un algorithme demande d’accéder à son codage informatique, ce qui peut poser des problèmes de sécurité ; détecter et corriger un biais de prédiction nécessite de disposer de plus de données, ce qui peut aller contre le respect de la vie privée, etc.
Une politique publique, un investissement économique, une décision de justice ou une action de défense n’auraient qu’un piètre résultat sans la possibilité complète de contrôle, de l’analyse à la mise en œuvre de la décision. Si l’on perd le contrôle de la méthode de collecte, des données nécessaires, de la méthode d’analyse, de la prédiction d’aide à la décision, ou de l’infrastructure de mise en action, on perd des moyens de mise en œuvre de sa souveraineté.
Cette maîtrise globale et systémique qui, au-delà des méthodes d’intelligence artificielle, inclut tous ses composants (données et algorithmes, serveurs, réseaux et terminaux, applications et logiciels, etc.) et ses écosystèmes (recherche et industrie) peut être difficile à atteindre en termes de coûts, de temps, de taille critique, etc. Il me paraît donc plus judicieux d’identifier et de commencer par les éléments à la fois stratégiques et prioritaires. Par exemple, une maîtrise des techniques de cryptographie et de leur insertion dans d’autres traitements (communication, stockage, interrogation, etc.) peut permettre d’assurer une autonomie stratégique pour notre souveraineté et notre sécurité.
Le besoin d’assurer ou de reconquérir des fonctions critiques ne doit cependant pas se transformer en un protectionnisme numérique systématique : Internet et le Web sont intéressants notamment parce qu’ils sont mondiaux, et en IA, parmi de nombreux autres exemples, la détection et la correction de biais ou la généralisation de résultats peut grandement tirer bénéfice d’échanges et de collaborations internationales…
Il nous faut maintenant systématiquement interroger la collecte et l’utilisation de nos données : nous savons que celles-ci ont de la valeur et qu’elles peuvent être "obtenues" (avec notre consentement) ou "subtilisées" (à notre insu) et non "données" ! Par exemple, un agriculteur a besoin de savoir que son tracteur va collecter des données à propos de son activité pour le compte du constructeur, ou un patient a besoin de savoir que sa pharmacie collecte des données sur lui au bénéfice de laboratoires privés. Le numérique aujourd’hui, et l’IA plus largement demain, font partie de notre quotidien : chaque citoyen et acteur de ce secteur doit être un "veilleur" de ses propres données. Cela passe d’une part par la diffusion d’une culture du numérique, et d’autre part par une réflexion individuelle et collective, posant les limites de ce qui est acceptable ou non, de "ce pour quoi" on autorise l’accès à une donnée...