Lors de son passage à l’Unil au printemps, le mathématicien et auteur du livre Toxic Data donnait une conférence intitulée « Comment les réseaux manipulent vos opinions dans le domaine du changement climatique », dans le cadre du Séminaire interfacultaire en environnement. Rencontre.
Vous étudiez les réseaux sociaux, un sujet auquel on ne pense pas facilement en songeant aux mathématiques, votre domaine de formation. Pourquoi ce choix ?
David Chavalarias : Les réseaux sociaux numériques sont une fenêtre ouverte sur les systèmes sociaux. Puisqu’ils sont numériques, on a potentiellement les traces de toutes les actions qui s’y produisent. Les mathématiques permettent une compréhension des formes et des structures en analysant ces traces et reconstituant des groupes sociaux numériques. Sur le temps long, on peut aussi comprendre comment ces systèmes sociaux se déforment sous l’effet de différents événements, par exemple une pandémie ou une élection.
Vous avez aussi étudié les sciences cognitives. Quels sont les mécanismes psychologiques les plus importants qui entrent en jeu sur les réseaux sociaux ?
Dans mes travaux, j’aborde les processus d’homophilie et d’influence, deux grands piliers en psychologie et en sociologie de la structuration des sociétés. L’homophilie est la tendance à interagir avec des gens qui nous ressemblent. Les structures d’interaction en sont le reflet : on va trouver des groupes dont les membres ont des points communs à un moment donné, par exemple le militantisme politique ou la religion. Le deuxième pilier est l’influence, c’est le fait que presque malgré nous, en interagissant avec d’autres, nous sommes influencés par leurs personnalités, leurs intentions, leurs objectifs. Dans mon livre, j’explique comment ce jeu entre homophilie et influence, ainsi que d’autres phénomènes psychologiques, s’insère dans l’infrastructure numérique pour créer des dérives dans les comportements collectifs sociaux. Ça peut être un excès de polarisation, de toxicité, une fragmentation de l’opinion…
Pouvez-vous nous donner un exemple ?
Il existe par exemple ce qu’on appelle le biais de négativité, qui est la tendance à être attiré en premier lieu par des choses qui peuvent nous menacer. Or les algorithmes utilisés pour la mise en visibilité de l’information sur les réseaux sociaux apprennent de nos actions et modèlent nos perceptions afin d’optimiser des revenus publicitaires. Ils ont besoin pour cela d’identifier les contenus qui sont le plus à même de nous pousser à interagir avec la plateforme. Ils apprennent ainsi notre biais de négativité et l’amplifient en nous fournissant, au-delà du raisonnable, ce type de contenus toxiques, c’est-à-dire conflictuels, obscènes, dénigrants. C’est une logique commerciale qui produit des effets délétères pour les individus et la société. Nous avons pu mesurer par exemple que sur X ce que les utilisateurs reçoivent dans leur fil d’actualité est enrichi avec plus de 49% de contenu toxique par rapport à ce à quoi ils s’abonnent.
Quelles sont les conséquences de cette toxicité ?
Si vous demandez un certain niveau de toxicité et que systématiquement on vous en donne 50% de plus, vous ne maîtrisez pas votre environnement informationnel et vous évoluez dans un monde qui est plus noir qu’il n’est, qui apporte plus de conflictualité. Puisque plus de 60% de l’humanité utilise des réseaux sociaux, ça crée des dysfonctionnements collectifs.
Aujourd’hui les réseaux sociaux évoluent très vite, autant au sein même des réseaux qu’avec l’émergence de nouvelles plateformes. Par quoi cette évolution se caractérise-t-elle ?
On remarque qu’il y a toujours plus d’intermédiations, c’est-à-dire que la relation que vous avez aux autres est de plus en plus filtrée par la technologie. Avant, on avait les blogs ou les wikis qu’on allait consulter de manière active. Les fils d’actualité et les systèmes de recommandation, arrivés plus tard, se sont mis à organiser qui vous pouvez voir et comment circule votre parole. Aujourd’hui, on va vers des infrastructures technologiques qui intègrent des intelligences artificielles. Il y a encore moins de contrôle sur ce à quoi vous êtes exposé.
Donc on choisit de moins en moins le contenu auquel on est confronté ?
Non seulement le contenu, mais aussi les personnes et les contextes. Alors vous avez de moins en moins la possibilité de prendre des chemins de traverse et d’explorer autre chose. Et l’architecture numérique qui est derrière et qui vous apporte ces informations est de plus en plus opaque. Même les concepteurs des IA ne comprennent pas exactement comment ça marche.
En quoi ces chemins de traverse sont-ils importants pour nos démocraties ?
Il est important que chacun puisse se faire des opinions librement. S’il y a un système centralisé qui est capable d’orienter toutes les opinions dans un sens, c’est tout simplement antidémocratique. De manière générale, il est très important d’avoir des collectifs qui explorent des choses inattendues. C’est ce qu’on appelle le compromis exploration-exploitation : il faut à tout moment qu’il y ait une partie de la société qui profite des connaissances actuelles, et une autre qui explore des nouveautés. Puisque l’environnement peut changer de manière imprévisible, il faut avoir à tout moment une grande diversité d’options pour s’adapter. Si la société se fait enfermer dans des systèmes numériques qui ne permettent pas ces chemins de traverse, le jour où les concepteurs font une erreur, c’est tout le système qui est menacé de ne pas pouvoir anticiper ou s’adapter à l’évolution du monde.
Quand on scrolle sur Internet, on n’imagine pas que tout le système pourrait s’écrouler…
Je vais vous donner un exemple. Quand on est en train de scroller et qu’on voit des contenus seulement quelques secondes, on retient assez peu les arguments logiques. De ce fait, ces contenus à forte charge émotionnelle sont plus facilement partagés. Ça peut devenir problématique, par exemple dans le cas d’élections, où on met au pouvoir quelqu’un pour plusieurs années. Si trois jours avant l’élection on est inondé de mèmes qui dénigrent un candidat, on va pouvoir manipuler le système émotionnel de toute une population de manière à ce qu’il vote différemment et mette au pouvoir une personne ou un parti inapte à la gestion des grands enjeux sociétaux du moment.
Comment faire pour garder le contrôle ?
C’est une bonne question. Il faut agir de manière systémique, c’est-à-dire au niveau individuel, collectif et institutionnel. Au niveau individuel, la première chose à faire est de prendre conscience de tout ça pour être moins vulnérable à la manipulation. Il y a plein de réflexes, comme compter cinq secondes avant de relayer un message pour vérifier que son contenu en vaut bien le coup. Autre chose, choisir son réseau social en fonction des valeurs que celui-ci promeut et de la liberté donnée aux utilisateurs. Au niveau collectif, on peut développer des infrastructures sociales vertueuses qui protègent les internautes. Et au niveau institutionnel, il y a une réflexion à avoir. On sait par exemple que le système de vote français date d’il y a plus de 300 ans et qu’il est devenu défaillant. La recherche en théorie du choix social a découvert de nouvelles manières de voter et de prendre des décisions collectives qui sont moins vulnérables à la manipulation sur les réseaux sociaux, qui ont tendance à extrémiser les positions. Le jugement majoritaire en un exemple d’un tel mode de scrutin.
Vous avez présenté à l’Université de Lausanne une conférence au sujet du réchauffement climatique. Quel rapport avec tout ce dont on vient de parler ?
A l’Institut des Systèmes Complexes de Paris ÎdF, nous avons a lancé plusieurs observatoires sur le réseau social X (ex Twitter) – le Politoscope, le Climatoscope – ce dernier portant sur les débats autour du changement climatique et des groupes sociaux associés. Depuis 2015, on observé plusieurs dizaines de millions de personnes et de leurs échanges à l’échelle mondiale sur ce thème. Ça nous a permis d’étudier la structure des échanges, les attitudes et les pressions politiques. On ainsi pu voir des communautés numériques très actives dont plusieurs influenceurs sont liés aux grosses industries, notamment fossiles, qui mettent des centaines de milliers d’euros pour retarder les actions sur le changement climatique. Mais nous avons pu aussi observer que la question du dérèglement climatique est devenu un terrain de jeu géopolitique. C’est-à-dire qu’alors que le changement climatique d’origine anthropique est maintenant un fait incontestable, avec des conséquences de plus en plus dramatiques, des États autoritaires utilisent cette thématique pour chercher à déstabiliser des démocraties en semant le doute ou en cherchant à rendre les positions des uns et des autres plus extrêmes. Si par exemple vous arrivez à faire en sorte qu’il y ait un tiers de la population d’un pays qui est climatosceptique ou climatodénialiste, et un tiers qui est convaincu qu’il est urgent d’agir contre le réchauffement climatique, vous créez une situation de conflit insoluble pour un gouvernement. En France, cette stratégie semble être à l’œuvre depuis 2022. On a ainsi pu observer une multiplication par six de l’activité des climatodénialistes sur Twitter durant l’été 2022, quelques mois après le début de la guerre en Ukraine. Plus de 80 % d’entre eux étant par ailleurs pro-Kremlin. Dans le même temps, hors ligne, le climatodénialisme avait gagné huit points dans l’opinion publique entre 2021 et 2022.
Au printemps de chaque année, le Séminaire interfacultaire en environnement invite des expertes et experts de toutes disciplines afin de parler d’environnement. Les conférences peuvent être intégrées dans le programme de master pour toutes les facultés de l’Unil et sont par ailleurs ouvertes au public.
