Changed on 19/12/2024
Dans un contexte mondial marqué par une quête croissante de sécurité, de transparence et de responsabilité, le concept d'IA de confiance émerge aujourd'hui comme une priorité. Mais comment garantir que l’intelligence artificielle reste sûre, fiable et éthique ? Quels outils, cadres et standards développer pour prévenir les risques sans pour autant entraver le développement de ces technologies ? Découvrez dans ce dossier comment les travaux en sciences du numérique contribuent à développer une IA plus sûre.

 

Le développement rapide de l’IA ouvre de nouvelles perspectives tout en soulevant des risques qu'il est important de ne pas ignorer : manipulation de l’information, cybersécurité, dérives possibles... Ces impacts, complexes à anticiper pleinement, mettent en lumière l’urgence d’instaurer un cadre et des actions solides pour une IA de confiance. 

Dans ce contexte, les initiatives internationales se multiplient, à l’image du sommet pour l'action sur l'intelligence artificielle qui se tiendra les 10 et 11 février prochain, qui permettent aux acteurs du domaine d'échanger autour du développement de solutions techniques ouvertes et accessibles à tous et de normes internationales communes reconnues par tous, afin d'éviter la fragmentation et d’encourager la convergence à tous les niveaux. Une dynamique dans laquelle Inria s’inscrit pleinement, notamment au travers des travaux de recherche portés par ses scientifiques.

Découvrez nos travaux de recherche dans le domaine

Biais sociétaux et discrimination

Des algorithmes pour rendre l’IA plus équitable

Comment atténuer les biais sociétaux propres aux algorithmes d’apprentissage automatique ? Des chercheurs de l’équipe-projet Magnet (Centre Inria de l’Université de Lille) ont proposé une solution : ils ont conçu un logiciel open source pour corriger les iniquités, en jouant sur les opportunités offertes à chaque individu, autrement dit sur les « allocations de ressources ». 

Illustration transfert et innovation

Pour une éthique du traitement automatique des langues : le regard de Karën Fort

Éléments fondamentaux de l’intelligence artificielle, les outils de traitement automatique des langues (TAL) suscitent autant d’attentes que d’inquiétudes. En étudiant la façon dont ils reproduisent et amplifient des biais stéréotypés, Karën Fort interroge la place de l’éthique dans leur conception, leur développement et leur utilisation.

Confiance.ai dévoile sa méthodologie outillée, un “bien commun numérique” au service du développement d'une IA industrielle et responsable

Ce “bien commun numérique” est désormais ouvert aux communautés scientifiques et industrielles. Il se compose d’une méthodologie de bout en bout bâtie sur de nombreux composants technologiques open source.

IA de confiance

Construire une IA digne de confiance en Europe

Depuis que les experts de la Commission européenne ont publié des lignes directrices en matière d’éthique pour une IA digne de confiance en 2019, une importante documentation sur le sujet a été émise et partagée par tous les acteurs de ce domaine. 

TAILOR : un réseau européen pour des IA fiables

Soutenu par le programme européen Horizon 2020, TAILOR met en réseau 55 partenaires scientifiques et industriels de 21 pays différents. Leur objectif : faire émerger de nouvelles solutions dans le domaine de l’intelligence artificielle de confiance en favorisant la méthode dite hybride, qui mêle approche symbolique, optimisation et apprentissage.

FAIRPLAY

Comment éviter les cas de discrimination tout en protégeant les données des utilisateurs ?

Créée dans le cadre d’un partenariat de recherche entre Criteo et Inria, l’équipe-projet FAIRPLAY se donne pour mission d’étudier l’impact de l’IA sur la conception de places de marchés transparentes et équitables.