Interactions humain-machine

Comment interagir au mieux avec les chatbots ?

Date:
Mis à jour le 15/11/2024
Quelle confiance accorder aux agents conversationnels (appelés aussi chatbots) ? Et comment optimiser nos interactions avec eux ? À l’heure où ces outils prennent une ampleur inédite, ces questions sont devenues cruciales. Et elles sont justement au cœur de la thèse de Clélie Amiot, doctorante sous la direction de François Charoy et de Jérôme Dinet au sein de l’équipe Coast, équipe projet Inria commune au Centre Inria de l’Université de Lorraine, au CNRS et à l’université de Lorraine au sein du laboratoire Loria.
Coast - Illustration applications collaboratives de confiance
© Inria / Photo C. Morel

Les interactions humain-machine (IHM) sous un angle pluridisciplinaire

 « Lorsque ma thèse a été définie, ChatGPT et ses semblables n’étaient pas encore connus du grand public et nous pensions alors nous concentrer sur les chatbots plus classiques, qui s’appuient sur des connaissances précises et identifiées, de type FAQ, retrace Clélie Amiot. L’objectif aurait été de voir comment aider les utilisateurs et utilisatrices à en extraire le maximum d’informations. Mais avec l’essor des agents conversationnels génératifs, le sujet de la confiance à accorder aux réponses qu’ils fournissent est devenu central, puisque leurs sources sont plus difficiles à identifier. » 

La doctorante et ses encadrants s’adaptent : la thèse, débutée fin 2019, porte finalement sur cette question, mais aussi sur l’intérêt de faire intervenir des chatbots dans des collaborations à très grande échelle, c’est-à-dire réunissant plusieurs dizaines, voire centaines, de participants. Et elle présente un éclairage inédit, à travers une analyse pluridisciplinaire des interactions humain-machine. « L’acceptabilité des chatbots a déjà été étudiée via de nombreuses approches technocentrées et quelques approches anthropocentrées, note Jérôme Dinet, enseignant-chercheur en psychologie ergonomique à l’Université de Lorraine et codirecteur de la thèse de Clélie Amiot au côté de François Charoy, professeur et membre de l’équipe Coast. Mais ici, l’informatique et la psychologie ergonomique se retrouvent pour la première fois réunies. »

Une confiance excessive de la part des humains

La jeune chercheuse a mis au point deux expériences pour mener à bien cette démarche innovante. La première consiste à observer la façon dont des volontaires réagissent à une information selon qu’elle est fournie par un humain ou par un chatbot. Les participantes et participants, recrutés à partir de la liste de diffusion de l’université de Lorraine, sont ainsi interrogés par exemple sur les techniques de survie en forêt et bénéficient de l’aide soit d’un humain, soit d’un chatbot. La subtilité ? Le prétendu chatbot est en fait géré par un humain, qui fournit donc les mêmes réponses que dans la première situation. Mais les réactions, elles, sont bel et bien différentes. 

« Quand l’assistant est humain, les participants réfléchissent plus, ont tendance à davantage argumenter et à moins se laisser influencer, note Clélie Amiot. Quand il est censé être un chatbot en revanche, ils suivent plus facilement ses conseils, font preuve de moins d’esprit critique. Ils ont tendance à considérer que les informations fournies n’ont plus qu’à être validées. » Des résultats qui interrogent, à l’heure où les sources de nombre de ces IA génératives ne sont pas, ou très difficilement, accessibles et vérifiables. 

La solution pour parer cette confiance excessive ? Le "forçage cognitif". « Il s’agit par exemple de demander à l’utilisateur ou utilisatrice de donner son avis avant de lui fournir la proposition automatisée, ce qui l’oblige ensuite à comparer les deux et donc à réfléchir, détaille Clélie Amiot. Il y a aussi un gros travail à faire sur "l’onboarding", c’est-à-dire lors des toutes premières interactions avec le chatbot. Il peut être intéressant à ce moment-là de le voir échouer pour calibrer nos attentes et être capable de reconnaître ses échecs… avant d’être habitués à trop se reposer sur lui. »

Des collaborations fluidifiées grâce aux agents conversationnels

La deuxième expérience, quant à elle, s’est fondée sur la création d’une plate-forme collaborative, sur laquelle 72 participantes et participants répartis en équipes de 4 devaient échanger entre eux pour résoudre 16 modules. « Ce type de collaborations à grande échelle, qui se présente typiquement dans le cadre de l’entreprise, est extrêmement difficile à gérer par des humains : il faut mémoriser ce que chacun apporte dans la conversation et être disponible en permanence en raison des horaires parfois décalés des différents participants et participantes, explique Clélie Amiot. Un chatbot, lui, ne rencontre pas ces difficultés ; il n’a pas de limitations de mémoire ou d’horaires et peut même traduire les conversations si les participantes et participants parlent des langues différentes. » 

Dans l’expérience, certaines équipes ont donc bénéficié de l’aide d’un agent conversationnel capable de relayer des informations déjà communiquées par les personnes participantes. « Et dans ces équipes, les conversations étaient beaucoup plus fluides et dynamiques que dans celles sans chatbot », souligne Clélie Amiot. De quoi encourager l’intégration des chatbots dans les collaborations à grande échelle, puisque même un agent conversationnel très simple améliore déjà la qualité des échanges. « Avec une version plus complexe, capable d’accéder d’elle-même aux documents de l’entreprise par exemple, les bénéfices pourraient être encore plus grands », estime la doctorante. 

Vers des chatbots adaptés aux besoins des utilisateurs et utilisatrices

À condition, là encore, de pouvoir contrôler la provenance des informations utilisées par le chatbot. « Les capacités d’un chatbot comme ChatGPT sur la maîtrise du langage naturel sont impressionnantes, mais la prochaine étape va consister à les utiliser de manière plus dirigée, en les liant à des bases de données fiablespoursuit Clélie Amiot. Avec l’objectif de réunir le meilleur de deux mondes : l’IA symbolique, qui repose sur des règles et des connaissances déclaratives explicites, et l’apprentissage profond, donc des connaissances à nature statistique. » 

En attendant, les travaux de Clélie Amiot offrent déjà un nouveau regard et des perspectives inédites sur l’usage des agents conversationnels. « Les chatbots, comme toutes les innovations technologiques, ont tendance à faire naître des opinions polarisées, même chez des non-utilisateurs, remarque Jérôme Dinet. Grâce aux travaux de Clélie, nous disposons de vrais arguments scientifiques à apporter au débat. Avec en ligne de mire l’idée de convaincre les concepteurs et développeurs de chatbots d’intégrer davantage l’usager, avec ses craintes, ses attitudes et ses attentes, dès la phase en amont pour proposer des outils qui seront facilement acceptés. » Un moyen de redonner toute sa place à l’humain.

Les sciences cognitives au service du jeu vidéo social

Depuis 2022 déjà, Clélie Amiot travaille aux côtés de Nicolas Gauville et Jimmy Etienne, deux docteurs en informatique qui ont créé la startup Cats & Foxes. Soutenus par Inria Startup Studio, qui leur apporte des moyens matériels et humains et leur permet de nouer des liens avec différentes équipes de recherche, ils développent un jeu vidéo nommé VirtualSociety. Le but de celui-ci ? Créer des mondes virtuels dans lesquels sont mises en avant la bienveillance et les relations sociales. Clélie Amiot y apporte son expertise sur l’interaction utilisateur. « Le jeu est intéressant pour la recherche puisqu’il permet d’observer les relations au sein de mondes virtuels, mais il représente également une opportunité dans le domaine de la santé, par exemple grâce aux thérapies par réalité virtuelle dans la prise en charge de certaines phobies ou de troubles autistiques », souligne-t-elle. Elle envisage de rejoindre officiellement la branche scientifique de la startup, une fois sa thèse soutenue.

L'expertise de l'équipe Coast

Le comportement des utilisateurs évolue constamment à mesure qu'ils s'habituent à de nouveaux services et à de nouvelles méthodes de coopération. La simple amélioration des solutions existantes pour faire face à ces défis est cependant insuffisante. Les recherches de l'équipe abordent les problèmes qui découlent de l'évolution des technologies contemporaines et de celles qui peuvent être anticipées, en explorant trois directions : la gestion collaborative des données à grande échelle, la composition de services centrés sur les données et, surtout, une base pour la construction de systèmes collaboratifs dignes de confiance.

En savoir plus