Alors que la deuxième phase du projet Agilis a été validée avec succès il y a quelques mois, deux équipes-projets Inria, WILLOW (Centre Inria de Paris) et CAMIN (antenne de Montpellier du Centre Inria d’Université Côte d'Azur) ont décidé de mutualiser leurs compétences pour faire un pas de plus vers l’autonomie des personnes atteintes de tétraplégie.
Reconstituer des objets du quotidien pour aider les personnes tétraplégiques à s’en saisir
Comment ? En utilisant certains outils développés par l’équipe-projet WILLOW, notamment les outils de vision par ordinateur, afin de reconstruire des objets à saisir à partir d’un flux vidéo issu d’une caméra classique. À partir de ce flux vidéo, l’objectif est ainsi de reconstituer la position et la forme d’un objet, mais aussi la position et la configuration en temps réel de la main d’une personne. Ces informations, couplées à un modèle biomécanique du bras et de la main, permettront ensuite de contrôler le système d’électrostimulation implanté dans le bras des personnes atteintes de tétraplégie de manière à mettre la main du patient dans une configuration qui lui permette de saisir l’objet de manière adaptée, c’est-à-dire ouvrir puis fermer les doigts de manière optimale.
Qu’est-ce que la vision par ordinateur ?
La vision par ordinateur est une branche de l’informatique liée à plusieurs disciplines (dont les mathématiques, les sciences cognitives, l’infographie et l’apprentissage automatique) qui cherche à comprendre et à automatiser les tâches que le système visuel humain peut effectuer.
Derrière ce projet, le chercheur Etienne Moullet, fraîchement recruté en postdoctorat au sein de l’équipe CAMIN, mais hébergé au quotidien par l’équipe WILLOW. « Mon projet a pour application ultime le projet Agilis, qui vise à redonner une certaine mobilité des membres supérieurs aux personnes tétraplégiques grâce à la stimulation électrique fonctionnelle implantée », indique-t-il.
Dans un premier temps, le projet se concentrera sur des tâches qui ont été déterminées comme importantes et représentatives de la vie quotidienne : ouvrir une porte, attraper une bouteille d’eau, etc.
L’objectif est ainsi que le patient puisse approcher sa main d’un objet placé devant lui, potentiellement au milieu d’autres objets de formes différentes, pour le saisir de manière optimale : « Il faut que l’on soit en mesure de scanner et reconstituer l’objet choisi pour déclencher la séquence d’activation qui permettra de bien saisir l’objet », explique Etienne Moullet.
Composer avec le corps humain
Et c’est là, toute la difficulté de ce projet. Alors que pour contrôler un robot il peut suffire de trouver une trajectoire optimale pour demander aux actionneurs du robot de suivre cette donnée, le corps humain possède, lui, des variables de fonctionnement très difficiles à anticiper.
« Quand on travaille sur le corps humain, on ne peut pas raisonner comme on le ferait pour un système motorisé. C’est une chose de pouvoir déterminer la configuration de la main qui serait optimale pour saisir l’objet, ça en est une autre de déterminer la séquence de signaux de stimulation à envoyer dans le muscle pour arriver à atteindre cette configuration sur la main humaine », explique Etienne Moullet, avant de préciser « On ne maitrise pas à 100% la manière dont la stimulation électrique va produire telle ou telle force dans les muscles. Par ailleurs, d’un patient à l’autre, les capacités fonctionnelles résiduelles et l’impact de la stimulation varient grandement. C’est une vraie difficulté. »
La vision par ordinateur est également un point de questionnement dans le développement d’un tel projet : « À l’heure actuelle, les outils de vision par ordinateur fonctionnent en effet en conditions optimales lorsque l’on connait la forme de l’objet au préalable », indique Etienne Moullet. « Il reste donc du chemin, mais c’est un domaine qui est en ébullition permanente. Des travaux s’affranchissent déjà, par exemple, de ces contraintes-là », conclut-t-il.