Les bots ne représentent que 4 % du contenu anti-vaccin publié sur Twitter

Spread the love
  • Yum

Les bots ne représentent que 4 % du contenu anti-vaccin publié sur Twitter

Selon une étude publiée par des chercheurs de l’université de Sydney, les bots de Twitter ne jouent que peu ou pas de rôle dans la propagation de discours complotistes concernant les vaccins. Selon cette étude, moins de 4 % de la désinformation concernant la vaccination exposée aux utilisateurs de Twitter provient des robots, le reste provenant d’interactions entre humains.

L’étude a examiné l’activité Twitter de plus de 53 000 utilisateurs sélectionnés au hasard aux Etats-Unis et a suivi leurs interactions avec les tweets liés au vaccin de 2017 à 2019. Ces utilisateurs étaient répartis sur l’ensemble des Etats-Unis, les lieux les plus courants étant la Californie, New York et le Texas, qui représentaient respectivement 12,3 %, 9,2 % et 9,1 % des utilisateurs sélectionnés.

En examinant 20 millions de tweets liés aux vaccins, les chercheurs de l’université de Sydney ont constaté que pour la plupart des utilisateurs, l’exposition à des contenus anti-vaccins était relativement peu fréquente, et l’exposition à des robots qui publiaient de tels contenus était encore plus rare. Pendant les deux ans qu’a duré l’étude, un utilisateur type a été exposé en moyenne à 757 tweets liés au vaccin, dont 27 comportaient un contenu critique sur le sujet, et aucun ne provenait de robots.

publicité

Le doute se propage

Par ailleurs, les résultats indiquent que 36,7 % des utilisateurs ont publié ou retweeté des contenus liés au vaccin. En comparaison, seulement 4,5 % des utilisateurs ont retweeté un tweet anti-vaccin, et seulement 2,1 % des utilisateurs ont retweeté ce contenu à partir d’un bot. La principale différence entre cette étude et ce qui a été fait dans le passé, explique Adam Dunn, chercheur à l’Université de Sydney, interrogé par ZDNet, est qu’elle mesure ce que les gens regardent plutôt que de simplement compter ce que les utilisateurs de Twitter publient.

D’autres études, comme celle réalisée par l’université Carnegie Mellon au début de l’année, qui a révélé que près de la moitié des 200 millions de tweets postés sur les coronavirus de janvier à juin provenaient de robots, se sont uniquement concentrées sur la quantité de contenu créé par les bots. Plutôt que de compter le nombre de messages créés par les robots de Twitter, les chercheurs de cette nouvelle étude ont mesuré le degré d’exposition et d’engagement des utilisateurs à l’égard des tweets relatifs au vaccin provenant de robots.

Les chercheurs ont compté un tweet ou un retweet lié au vaccin publié par un compte qu’un utilisateur suivait comme une exposition potentielle, tandis que l’engagement a été mesuré en identifiant les tweets liés au vaccin qui ont été retweetés par les utilisateurs. « C’est une différence fondamentale et vraiment importante, car je pense que cela a potentiellement eu un impact sur les politiques et le type de règles auxquelles les plateformes de médias sociaux ont consacré leur temps », relève Adam Dunn.

Des bots inaudibles

L’étude révèle également que pour les utilisateurs de Twitter appartenant à des communautés qui s’intéressent davantage au thème de la vaccination en général, qui représentent 5,8 % des utilisateurs sélectionnés, la grande majorité ne s’est jamais intéressée aux messages sur les vaccins provenant de bots. Au lieu de cela, ils se révèlent davantage engagés par des contenus critiques sur les vaccins postés par d’autres utilisateurs humains dans leurs communautés. Le pourcentage d’utilisateurs de ce sous-groupe qui a retweeté des bots au moins une fois était inférieur à 10 % pendant les deux années de l’étude.

Etant donné le faible impact des bots Twitter sur le discours sur les vaccins aux Etats-Unis, les chercheurs pensent qu’allouer des ressources pour éliminer les bots pourrait être moins efficace que de fournir des outils pour améliorer l’éducation aux médias et développer des interventions de communication personnalisées ciblant les communautés où le contenu critique pour les vaccins est le plus courant.

Sur le thème des vaccins, Facebook a pris diverses mesures pour rendre la désinformation anti-vaccination plus difficile à trouver, tout en élevant le niveau des informations faisant autorité sur les vaccins. Le géant des médias sociaux n’a toutefois pas supprimé complètement les groupes.

Un encadrement à mener avec précaution

Des mesures qui se révèlent inefficaces, selon Adam Dunn. « Les plateformes de réseaux sociaux font beaucoup pour essayer de se débarrasser des robots ou mettre moins en valeur les opinions postées avec de mauvaises intentions, mais il s’agit d’une approche fondamentalement mauvaise. Ce que les plateformes devraient plutôt faire, c’est d’aider à éduquer les utilisateurs des médias sociaux afin qu’ils puissent être protégés contre la désinformation et s’empêcher de la transmettre », estime ce dernier.

« Les personnes qui publient des informations erronées sur la santé en ligne ne sont pas des trolls vivant sous les ponts et essayant de manger des chèvres ou des hobbits ; ce sont juste des personnes comme vous et moi. Il s’agit rarement de campagnes malveillantes de la part de gouvernement étrangers. C’est juste qu’il est pratique pour nous d’essayer de trouver d’autres personnes à blâmer pour les raisons pour lesquelles les gens ne vaccinent pas leurs enfants, pourquoi ils ne portent pas de masques et pourquoi ils boivent de l’eau de javel », regrette-t-il.

En attendant, Twitter a introduit depuis le milieu de l’année des étiquettes pour accompagner les tweets trompeurs, contestés ou non vérifiés, concernant la désinformation sur les vaccins et le coronavirus, afin de freiner la diffusion d’informations fausses et nuisibles sur la crise mondiale. Le réseau social a également commencé à étiqueter les tweets comme trompeurs s’ils fournissaient des informations inexactes sur le vote et le processus électoral. Twitter a utilisé cette nouvelle fonctionnalité pour mettre des étiquettes d’avertissement sur plusieurs des tweets de Donald Trump, tout au long de l’été et au début de l’automne.

De même, Facebook a mis en place des mesures pour lutter contre la diffusion d’informations erronées sur la Covid-19 en alertant les utilisateurs lorsqu’ils ont interagi avec des contenus faux ou dangereux. Ces mesures ne sont toutefois pas étendues à la désinformation anti-vaccination. L’entreprise hésite également à vérifier les faits de la publicité politique « parce que nous pensons qu’il est important que le débat ait lieu ».

Source : ZDNet.com

Leave a Reply

Your email address will not be published. Required fields are marked *