Twitter confirme que son outil de recadrage favorisait les personnes blanches

Spread the love
  • Yum

Twitter confirme que son outil de recadrage favorisait les personnes blanches

Dans le cadre de sa politique de lutte contre les préjugés racistes et sexistes, Twitter a choisi de quantifier la mesure dans laquelle son algorithme de recadrage des images était biaisé sur le plan racial.

Dans le cadre d’une recherche menée par Twitter, la plateforme a testé son algorithme de recadrage d’images afin d’y déceler des biais raciaux et sexuels, tout en examinant si son modèle était conforme à l’objectif de permettre aux gens de faire leurs propres choix sur la plateforme.

publicité

Des biais racistes et sexistes ?

Dans le détail, l’algorithme, qui utilise une approche de saillance, favorise les individus blancs à 4 %. Plus précisément, Twitter a observé une différence de 7 % pour les femmes blanches face aux femmes de couleur, quand les hommes blancs sont favorisés de 2 % face aux hommes de couleur.

Twitter a commencé à utiliser une approche de saillance pour le recadrage des images en 2018. Les algorithmes basés sur l’approche de saillance fonctionnent en estimant ce qu’une personne pourrait vouloir voir en premier dans une image. Ensuite, le système recadre l’image. Ces modèles sont formés à analyser l’image comme l’œil humain la regarde, en hiérarchisant ce qui est susceptible d’être le plus important pour celui qui regarde. Mais Twitter explique que cette méthode est imparfaite car, dans une image présentant plusieurs individus, il n’y a souvent pas de solution « idéale ».

Twitter a également évalué les biais sexistes de son algorithme, en analysant les décisions sur le recadrage des images en fonction du sexe. Dans les comparaisons entre hommes et femmes, on constate une différence de 8 % sur la parité démographique, en faveur des femmes.

La plateforme a également vérifié la présence de “male gaze”, en sélectionnant au hasard 100 images présentant des hommes et des femmes et en observant comment le programme recadrait l’image. Elle n’a trouvé aucune preuve d’objectification, par exemple en favorisant certaines parties du corps des femmes.

Un algorithme mis en cause

Cette enquête de Twitter fait suite à l’indignation publique de l’année dernière, qui a critiqué l’outil de recadrage de la plateforme, qui semblait exclure automatiquement les individus non-blancs lorsqu’un image présentait des individus en mixité.

Les biais racistes de l’outil de recadrage avait été mis en avant par l’utilisateur Colin Madland, puis confirmé par la plateforme. Twitter avait alors conclu que la décision de recadrer une image ne devait pas être prise par des algorithmes, mais par des humains.

« Même si l’algorithme était ajusté pour refléter une égalité parfaite entre les races sociales et les sexes, nous sommes préoccupés par le préjudice de représentation de l’algorithme automatisé lorsque les gens ne sont pas autorisés à se représenter comme ils le souhaitent sur la plateforme », expliquait mercredi Rumman Chowdhury, directeur de l’ingénierie logicielle de Twitter. « La salacité recèle également d’autres préjudices potentiels qui dépassent le cadre de cette analyse, notamment l’insensibilité aux nuances culturelles. »

Twitter veut réduire les biais de ses outils

Selon Twitter, ces constatations sont à l’origine de sa décision de déployer des améliorations au début du mois. La plateforme a changé la façon dont les images sont vues et publiées. Désormais, lorsque les utilisateurs tweetent une photo téléchargée avec leur appareil iOS ou Android, celle-ci apparaît dans la timeline dans son intégralité. Les utilisateurs peuvent également prévisualiser l’image avant de la poster, plutôt que de la voir recadrée au gré de l’algorithme de recadrage de Twitter.

L’enquête et les changements opérés par la plateforme s’inscrivent dans le cadre de son engagement à tester continuellement ses algorithmes pour détecter tout biais après le tollé de l’an dernier. Cet engagement vise également à laisser une plus grande liberté aux utilisateurs quant à la façon dont les images apparaissent sur leurs comptes.

« Bien que nos analyses à ce jour n’aient pas révélé de préjugés raciaux ou sexistes, nous sommes conscients que la façon dont nous recadrons automatiquement les photos signifie qu’il existe un risque de préjudice », écrivaient en octobre Parag Agrawal, directeur technique de Twitter, et Dantley Davis, CDO. « Nous aurions dû mieux anticiper cette possibilité lorsque nous avons commencé à concevoir et à construire ce produit. »

Source : ZDNet.com

Leave a Reply

%d bloggers like this: