Un projet européen
Cette problématique est particulièrement importante dans le cadre d'applications d'IA pour le diagnostic médical, pour lequel il est important de savoir comment l'algorithme a pris la décision.
Pour cette raison, nous avons décidé de répondre à l'appel CHIST-ERA avec un projet qui mettait en exergue nos compétences en argumentation en langage naturel en collaboration avec des médecins, en exploitant nos résultats dans l'analyse automatique de l'argumentation dans les résumés des essais cliniques sur PubMed avec notre outil ACTA.
Le projet Antidote est coordonné par l'équipe-projet Wimmics, en partenariat principalement avec des universités :
- Université Côte d’Azur ;
- Centre Antoine Lacassagne ;
- Fondazione Bruno Kessler, Trento, Italie ;
- University of the Basque Country, Espagne ;
- KU Leuven, Belgique ;
- Universidade Nova de Lisboa, Portugal.
et en français : Intelligence artificielle explicable basée sur l'argumentation, pour la santé.
Un partage de coordination et d'expérience
Au vu de notre collaboration continue sur différentes thématiques en IA et traitement automatique du langage naturel, le choix de cocoordonner ce projet est venu naturellement.
Cela nous permet d'adresser conjointement les problématiques et les défis que la coordination d'un projet de cette ampleur peut soulever.
L'IA dans le projet Antidote
Fournir des explications de haute qualité pour les prédictions de l'IA, basées sur l'apprentissage automatique, est une tâche difficile et complexe.
Pour être efficace, il faut, entre autres :
- choisir un niveau adéquat de généralité/spécificité de l'explication ;
- faire référence à des éléments spécifiques qui ont contribué à la décision de l'algorithme ;
- utiliser des connaissances supplémentaires qui peuvent aider dans l'explication du processus de prédiction et sélection d'exemples appropriés.
Le but est que le système puisse formuler l'explication d'une manière clairement interprétable, voire convaincante.
Compte tenu de ces considérations, le projet Antidote favorise une vision intégrée de l'IA explicable (XAI), où les caractéristiques de bas niveau du processus d'apprentissage profond sont combinées avec des schémas de plus haut niveau propres à l'argumentation humaine.
Le projet Antidote se base sur trois considérations :
- dans les architectures neuronales, la corrélation entre les états internes du réseau (par exemple, les poids des nœuds individuels) et la justification du résultat de la classification faite par le réseau n'est pas bien étudiée ;
- les explications de haute qualité sont cruciales et elles doivent essentiellement se baser sur des mécanismes d'argumentation ;
- dans des situations réelles, l'explication est par nature un processus interactif impliquant un échange entre le système et l'utilisateur.
Une synergie avec les humains
Antidote développera une IA Explicable axée sur l'argumentation et dotée de "compétences d'intégration" révolutionnaires, capable de travailler en synergie avec les humains, en expliquant ses résultats de manière à ce que les humains puissent lui faire confiance, tout en bénéficiant de la capacité des IA à apprendre à partir de données.
Antidote engagera les utilisateurs dans des dialogues explicatifs, ce qui leur permettra d'argumenter avec l'IA en langage naturel. Le domaine d'application du projet Antidote vise à impacter surtout l’éducation en médecine, pour entraîner les étudiants à fournir des explications claires pour justifier leur diagnostic.