Les algorithmes ont-ils la capacité d’influencer les comportements politiques ?

Spread the love
  • Yum

Les algorithmes ont-ils la capacité d'influencer les comportements politiques ?

A une semaine de l’élection présidentielle américaine, l’UE s’interroge sur l’influence des médiaux sociaux sur les opinions politiques. La Commission se penche dans un rapport sur l’influence des technologies en ligne sur la prise de décision et les comportements politiques.

S’il est avéré que les moteurs de recherche jouent un rôle capital dans le paysage politique, nul ne peut juger de la part de responsabilité des algorithmes dans ce processus. Il n’est pas écarté que les algorithmes, connus pour leur complexité inhérente, influencent nos préférences et nos perceptions. D’ailleurs, les flux d’informations et les systèmes de recommandation automatisés sont conçus pour « maximiser l’attention des utilisateurs en anticipant nos préférences présumées », pouvant mener à la publication de « contenus polarisants, trompeurs, extrémistes ou autrement problématiques », reconnaît le rapport.

Des recherches récentes menées aux Etats-Unis ont révélé que même le courrier électronique n’est pas à l’abri des retombées politiques du tri algorithmique. Le service de messagerie Gmail trie automatiquement les messages entrants entre différentes boîtes aux lettres. Plus troublant encore, la redirection différait considérablement selon les candidats politiques, 63 % des courriels d’un candidat apparaissant dans la boîte de réception principale, contre 0 % pour beaucoup d’autres (dont Joe Biden et Elizabeth Warren).

publicité

Polarisation croissante

La Commission déclare que les preuves de l’existence de bulles de filtrage (c’est-à-dire la séparation algorithmique du contenu informatif des utilisateurs) sont « ambivalentes », même s’il existe de « sérieuses et légitimes préoccupations concernant les chambres d’écho » (c’est-à-dire formées par l’auto-sélection du contenu par les utilisateurs), poursuit-elle.

Ces phénomènes de chambres d’écho et de bulles filtrantes sur les plateformes entraînent une « polarisation et une radicalisation politiques croissantes ». Ainsi, le système de recommandation sur YouTube tend à offrir aux spectateurs un contenu « plus extrême à chaque étape », note le rapport. Par exemple, « les utilisateurs qui ont visionné des vidéos de Donald Trump pendant la campagne présidentielle de 2016 se sont vu présenter par la suite des vidéos mettant en scène des tenants de la suprématie blanche et des négationnistes de l’Holocauste. Après avoir diffusé des vidéos de Bernie Sanders, YouTube a suggéré des vidéos relatives à des conspirations de gauche, comme l’affirmation selon laquelle le gouvernement américain était derrière les attentats du 11 septembre. Une récente étude préenregistrée du système de recommandation de YouTube a confirmé qu’il était susceptible de promouvoir et d’amplifier des contenus conspirationnistes même en réponse à des termes de recherche relativement inoffensifs ».

Le rapport soutient par ailleurs qu’en raison des interactions complexes entre les comportements algorithmiques et humains, la répartition des responsabilités est difficile à percevoir. Ce qui demeure évident, pour la Commission, c’est que les algorithmes ne font rien pour lutter contre la polarisation en ligne.

Leave a Reply

%d bloggers like this: