Le paradoxe des réseaux sociaux
En 2019, Frank Valencia a commencé à appliquer son expertise en matière de méthodes formelles aux problèmes sociaux. Il s’est notamment intéressé au rôle croissant des réseaux sociaux dans le processus démocratique ayant donné lieu à une polarisation des opinions pendant les élections, mais aussi aux sujets comme le vaccin contre la Covid-19. « Le rôle des réseaux sociaux est relativement paradoxal. D’un côté, le monde est plus interconnecté, nous avons un meilleur accès à l'information et aux différentes opinions », constate-t-il. « Mais, de l’autre, il ne faut pas oublier le fait qu’ils peuvent façonner les opinions des utilisateurs à une échelle sans précédent, donnant lieu à une large polarisation. Mon objectif était de trouver des modèles permettant d’analyser ce phénomène et d’utiliser mon expérience des méthodes formelles pour adapter des modèles économiques et statistiques qui avaient déjà abordé des problèmes similaires », poursuit-il.
L'irrationnalité humaine et les biais cognitifs
Pour développer cette approche pluridisciplinaire, Frank Valencia et ses collègues ont étudié la littérature économique et statistique existante sur la modélisation des phénomènes sociaux, tels que la polarisation des communautés résultant de facteurs économiques. Toutefois, ces documents ne mentionnent pas les connexions et possibilités d'influence infinies qui sont apparues récemment avec les réseaux sociaux, à travers les algorithmes, la mobilisation et la nature humaine. « Les êtres humains sont fondamentalement irrationnels et subissent l’influence de biais cognitifs », explique Frank Valencia. « Les biais rendent les gens plus vulnérables à la manipulation. C’est pourquoi l'objectif principal de notre modèle est d'expliquer le phénomène de formation de croyances sous l'effet des biais cognitifs. »
Les chercheurs ont étudié trois types de biais cognitifs qui influencent le comportement des utilisateurs des réseaux sociaux :
- Le biais d'autorité, ou la tendance à être plus facilement influencé par l'opinion d'une figure d'autorité ou d'un influenceur. Les influenceurs maintiennent le niveau d’engagement des utilisateurs ou de leurs followers.
- Le biais de confirmation, ou la tendance à rechercher, interpréter, favoriser et rappeler des informations qui confirment ou appuient ses propres croyances ou valeurs antérieures. Les réseaux sociaux établissent un profil des utilisateurs et, à l'aide d'algorithmes spécifiques, leur envoient des informations qui appuient leurs opinions. Ils maintiennent ainsi leur niveau d’engagement, au risque de les faire basculer vers les extrêmes.
- Le biais de l'effet de retournement de situation, selon lequel le fait de montrer aux personnes des preuves qui démontrent qu'elles ont tort est souvent inefficace, et peut finir par se retourner contre elles, les amenant à défendre encore plus fermement leur position initiale. Là encore, cela maintient le niveau d'engagement au risque de faire basculer les utilisateurs vers les extrêmes.
« Intentionnellement ou non, les réseaux sociaux risquent de favoriser l’apparition de ces biais », explique Frank Valencia. « Les influenceurs forment des opinions parmi les utilisateurs à travers le biais d’autorité. Le biais de confirmation mène à la création de chambres d'écho qui renforcent ces opinions, tandis que le biais de l'effet de retournement de situation alimente des discussions qui accentuent les désaccords », explique-t-il. « Notre modèle montre comment ce phénomène peut, à son tour, conduire à une polarisation, entraînant ainsi des fractures au sein de la société. »
Influence et formation des croyances
Le modèle prend un groupe d'utilisateurs théoriques et une proposition d'intérêt, par exemple que les vaccins sont sûrs. Il prend ensuite la croyance (opinion) de chaque utilisateur dans cette proposition et la trace sur un graphique d'influence où la croyance de chaque utilisateur dans la proposition est pondérée de "1 = croit vraiment" à "0 = ne croit pas vraiment". De cette façon, le modèle décrit les croyances initiales d'un utilisateur et la façon dont elles peuvent influencer les autres. Il décrit également comment les croyances se forment au fil du temps en ajoutant un facteur de biais (voir ci-dessus). Au fil du temps, en fonction du niveau de croyance de chaque utilisateur (de 1 à 0) et des autres utilisateurs qu'il influence ou qui l'influencent, ces croyances resteront les mêmes ou évolueront, et pourront ou non converger vers un consensus.
Les graphiques ci-dessous illustrent l'évolution des croyances en cas de biais de confirmation et de différents modèles d'influence : les graphiques supérieurs montrent les utilisateurs et leur niveau de croyance, les nuances de rouge/orange représentant les utilisateurs qui croient ou ont tendance à croire que les vaccins sont sûrs et les nuances de bleu/pourpre représentant ceux qui ne croient pas ou ont tendance à ne pas croire que les vaccins sont sûrs. Les graphiques du bas montrent l'évolution de la croyance de chaque utilisateur au fil du temps.
Dans le graphique A, plusieurs utilisateurs sont initialement attirés par l'utilisateur 5, qui est pro-vaccins et très influent. Cependant, comme l'utilisateur 5 est influencé par les utilisateurs 3 et 4, qui sont à leur tour influencés par les utilisateurs anti-vaccins, toutes les opinions se déplacent et finissent par atteindre un consensus.
Dans le graphique B, des influences inverses ont été ajoutées à celles du graphique A. Ici, par exemple, l'utilisateur 5 influence les utilisateurs 3 et 4 tout en étant influencé par eux, tandis que les utilisateurs 3 et 4 influencent les utilisateurs 1 et 2 respectivement, tout en étant influencés par eux, et ainsi de suite. Par conséquent, la tendance convergente commence plus tôt et le consensus est atteint plus rapidement.
Enfin, dans le graphique C, les utilisateurs 1 et 4 continuent d'influencer les utilisateurs 3 et 5 respectivement, mais ne sont plus influencés par aucun autre utilisateur et ne changent donc pas leurs croyances. Les utilisateurs qu'ils influencent évoluent, mais il ne peut y avoir de consensus.
Une polarisation persistante
Pour étudier la polarisation, Frank Valencia a adapté, dans le cadre de ses recherches, la mesure de la polarisation d'Esteban et Ray, initialement appliquée à ce modèle de croyances dans un contexte économique. Il a ainsi confirmé l'hypothèse selon laquelle la polarisation est accentuée lorsque la société peut être divisée en quelques grands groupes, surtout lorsqu’on observe des similitudes au sein d'un groupe et des différends plus marqués entre les groupes. Il a également pu donner une explication aux situations où ces opinions contrastées persistent (voir graphique ci-dessous). « Nous avons établi que, dans une communauté où la polarisation ne disparaît pas avec le temps, il y a soit un utilisateur qui influence plus qu'il n'est influencé, soit un groupe isolé ou radical au sein de la communauté », explique Frank Valencia. « On comprend alors que, dans la vie réelle, il y a peu ou aucune chance qu'une ou plusieurs personnes dans cette position changent d'avis. » Dans le diagramme ci-dessous, 0 (bleu foncé) représente un utilisateur ayant une influence excessive, tandis que 1 et 2 (rouge foncé et clair) et 8, 9 et 10 (jaune et orange) représentent des groupes isolés ou radicaux.
Vers un nouveau fonctionnement des réseaux sociaux ?
À l'avenir, l'équipe entend rendre son modèle plus fiable, en ajoutant des influences dynamiques, de manière à représenter plus précisément l'évolution réelle des schémas d’influence et des croyances. « Notre recherche se base actuellement sur des influenceurs fictifs, mais nous prévoyons également de vérifier notre modèle en utilisant des données réelles tirées des réseaux sociaux », conclut Frank Valencia. « Nos résultats montrent déjà que les réseaux sociaux peuvent être conçus différemment, en ajustant les algorithmes en fonction des biais, qui auront un impact sur le flux d'influence et produiront ainsi des résultats différents, avec moins de polarisation. Nous espérons que nos travaux pourront contribuer à la réalisation de cet objectif. »
En savoir plus
- Réseaux sociaux : les rouages de la manipulation de l’opinion, interview de David Chavalarias, pilote du Politoscope, CNRS Le Journal, 8/3/2022.
- Comment les réseaux sociaux accentuent l’enfermement dans ses idées, Le Monde, 24/4/2018.
- Géopolitique des réseaux sociaux, Le dessous des cartes – Arte, 2/10/2021.