« Ce ne sont pas les nouvelles que vous lisez qui comptent, mais les significations qu’on donne aux nouvelles que vous lisez ! »
Il y a près de trois ans, Meta a annoncé son association avec un certain nombre de chercheurs indépendants pour étudier l’impact de Facebook et Instagram lors de l’élection américaine de 2020. Un engagement de poids offrant une vue indépendante sur la manière dont ces plateformes influencent – ou pas – la polarisation et la désinformation.
Et voilà, les premiers résultats de cette recherche sont arrivés. Quatre articles examinés par des pairs, publiés dans des revues pour le moins respectées, Science et Nature. On pourrait s’attendre à des conclusions monstrueuses, à des révélations fracassantes sur l’influence de ces plateformes sur notre opinion. Mais la réalité est… un peu plus complexe que cela.
Les plateformes ne créent pas le problème, mais elles ne sont pas non plus la solution.
Des chercheurs ont ainsi étudié l’impact des « chambres d’écho », un phénomène par lequel les utilisateurs sont exposés à des sources « partageant les mêmes idées ». Les résultats ? La plupart des utilisateurs aux États-Unis voient du contenu provenant de sources « similaires », mais il ne s’agit pas nécessairement de contenu politique ou lié à l’actualité. De plus, la réduction de ce type de contenu a diminué l’engagement, mais sans changer de manière mesurable les croyances ou attitudes des utilisateurs.
Autre investigation intéressante, l’étude de l’effet des fils d’actualité chronologiques par rapport à ceux générés par des algorithmes. Le verdict est sans appel : les fils d’actualité algorithmiques de Facebook et Instagram influencent fortement l’expérience des utilisateurs. Qui l’eut cru ?
Ce qui est notable, c’est que d’après les chercheurs, changer le fil d’actualité en chronologique ne changerait pas vraiment la donne en termes d’attitudes, de connaissances ou de comportements politiques hors ligne.
En outre, en étudiant le contenu rediffusé lors de la campagne présidentielle de 2020, on constate que celle-ci contribue largement à la diffusion de fausses informations. Cependant, contrairement à ce que l’on pourrait penser, la suppression de ces contenus partagés ne changerait pas vraiment les attitudes politiques des utilisateurs.
Enfin, en analysant les actualités politiques qui apparaissent dans les fils d’actualité des utilisateurs, les chercheurs ont conclu que Facebook est très clairement ségrégé idéologiquement. Et surprise, ce sont surtout les utilisateurs conservateurs qui ont tendance à voir du contenu provenant de sources peu fiables, ainsi que des articles classés comme faux par les vérificateurs de faits tiers de l’entreprise.
Alors oui, il semble que Meta ait raison sur un point : le contenu politique est bel et bien une minorité sur les plateformes. Cependant, le véritable enseignement de ces recherches est que les solutions à la polarisation sur les médias sociaux ne sont pas si évidentes que cela. Comme l’explique David Garcia, de l’Université de Constance, qui faisait partie de l’équipe de recherche : « Les résultats de ces expériences ne montrent pas que les plateformes ne sont pas le problème, mais ils montrent qu’elles ne sont pas la solution. ».
Source : Engadget