Science-fiction ? Plus tout à fait. Quand le cerveau prend une décision, les neurones produisent des impulsions électriques. Un casque électroencéphalographique peut capter ces signaux sur le cuir chevelu. D'une façon encore rudimentaire, des scientifiques parviennent désormais à interpréter le signal pour le transformer ensuite en ligne de commande. C'est ce que l'on appelle une interface cerveau-machine, encore connue sous l'appellation anglaise de BCI (Brain-Computer Interface ). Depuis une quinzaine d'années, à Rennes, l'équipe de recherche Hybrid (équipe-projet Inria, université Rennes 1 et Insa Rennes, commune à l'Irisa - UMR CNRS 6074) conçoit des algorithmes visant à améliorer le traitement informatique de ce signal cérébral. Ces travaux ont donné naissance à OpenViBE, une plate-forme logicielle utilisée aujourd'hui dans le monde entier pour développer des applications BCI. Et c'est ce savoir-faire qui intéresse Orange Labs.
“Nous sommes dans une démarche très prospective, explique Jean-Philippe Javaudin, responsable de programme de recherche au centre Orange Labs de Rennes. Il ne s'agit pas d'installer cette technologie chez nos clients demain matin, mais nous souhaitons monter en expertise sur le BCI pour mieux mesurer comment, un jour, nous pourrons intégrer la commande neuronale dans nos produits.”
Multimodalité d'interaction
Quels produits ? “La maison connectée, répond Sylvain Marrec, chef de projet de recherche au centre Orange Labs de Lannion. Nous nous intéressons en particulier à ce que nous appelons la multimodalité d'interaction avec les appareils qui se trouvent dans l'habitat. Aujourd'hui, l'utilisateur les pilote par le texte, par le geste, par la voix, etc. À un horizon plus ou moins lointain, la commande par le cerveau peut devenir l'une de ces modalités d'interaction. Nous souhaitons donc étudier comment la mettre en œuvre et la tester pour voir ce que cela donne. Évidemment, le BCI ne constitue pas l'un de nos cœurs de métier. Pour nous acculturer sur ce sujet, nous avons donc décidé de nous rapprocher d'Inria. Cela permet d'accéder directement à l'état de l'art de la technologie. ”
La collaboration prend la forme d'un contrat de recherche externe (CRE) sur une période de sept mois. “Le but est de concevoir une preuve de concept pour montrer comment on peut piloter sa maison en utilisant à la fois un casque qui capte les impulsions cérébrales et une interface de réalité augmentée, détaille Foued Bouchnak, chef de projet responsable du contrat de recherche chez Orange Labs de Rennes. En l'occurrence, il s'agit d'une paire de lunettes Microsoft HoloLens affichant des icônes dans le champ de vision. L'utilisateur sélectionne l'une de ces icônes en focalisant son attention dessus. À nous ensuite d'identifier son choix en analysant le signal cérébral. Pour ce cas d'étude, nous avons retenu deux scénarios : allumer/éteindre une lampe, puis allumer/éteindre le téléviseur ou aller à la chaîne suivante/chaîne précédente. "
Home'In
Ce travail implique non seulement des scientifiques de l'équipe Hybrid, mais aussi des ingénieurs de recherche Inria. “Dans notre cas de figure, ces derniers élaborent en particulier la passerelle entre OpenViBE et Home'In, la plate-forme de recherche intégrative d' Orange Labs pour la maison connectée et sensible", ajoute Sylvain Marrec.
“Actuellement, la commande cérébrale n'est pas industrialisable, indique Jean-Philippe Javaudin. Tout d'abord, se pose un problème de maturité en termes de performances atteintes. Si une commande BCI atteint un taux de succès de 80%, c'est intéressant, mais pas suffisant pour mettre cette technologie sur le marché. Ensuite, il y a tout un aspect lié à la contrainte ergonomique : l'utilisateur doit porter un casque et des lunettes Hololens. C'est une contrainte acceptable dans certaines conditions liées à des situations de handicap. Mais avant de pouvoir s'adresser au grand public, il faudra d'abord lever certaines barrières technologiques. C'est une question de temps.”
Combien ? Cinq ans ? Dix ans ? “Ça peut bouger très vite, estime Foued Bouchnak. J'ai la conviction que les BCI sont vraiment porteurs. Il est très pertinent que notre entreprise se positionne sur cette technologie. On peut certainement faire une analogie avec les systèmes d'analyse vocale apparus dans les années 2000. Au début, ils se cantonnaient à l'usage exclusif des personnes à mobilité réduite. Ils étaient très imparfaits, très saccadés. Il fallait énoncer les mots un par un, etc. Finalement, les assistants vocaux ont évolué très vite. Aujourd'hui, ils sont extrêmement fluides et tout le monde s'en sert, comme par exemple Djingo l’assistant vocal d’ Orange. Je pense que les BCI sont, eux aussi, amenés à se généraliser assez rapidement. ”