Capitole : une technologie de reconnaissance faciale controversée sert à identifier les émeutiers

Spread the love
  • Yum

Très critiquée, la technologie de reconnaissance faciale de la société Clearview AI est de retour sur le devant de la scène. Plusieurs médias américains ont en effet pu établir qu’elle est utilisée par les forces de l’ordre afin d’identifier les personnes qui ont pénétré de force dans le Capitole la semaine dernière.

Le PDG de Clearview AI a de son côté précisé que l’utilisation de la technologie de reconnaissance faciale de sa compagnie par les services de police a augmenté de 26 % depuis mercredi. De fait, cet événement largement diffusé par les chaînes de télévision et en ligne, permet aux policiers d’accéder à de nombreuses images leur permettant de repérer des suspects qui, pour la plupart, agissaient au grand jour.

Une technologie très décriée par le passé

Dans le détail, le New York Times précise que la police de Miami a fait appel à Clearview pour identifier certains des émeutiers. Le Wall Street Journal a aussi pu établir que la police de l’Alabama travaillait également de concert avec le FBI.

Clearview AI a suscité de vives polémiques par le passé, si bien que de nombreux observateurs se sont demandés si l’avènement de cette technologie ne signifiait pas la disparition pure et simple de la vie privée. Ainsi, l’entreprise a récupéré trois milliards d’images de personnes sur les réseaux sociaux, ce qui n’est évidemment pas sans poser de très sérieux problèmes en matière de confidentialité.

Les géants du web se sont émus de ces pratiques, à l’image de Google qui a demandé à la compagnie d’arrêter de capturer ces données et de supprimer celles qui ont déjà été récupérées. Finalement, Clearview AI a annoncé qu’elle allait cesser de vendre sa technologie a des entreprises privées et qu’elle mettrait ses services à disposition des forces de l’ordre. Elle précise que 2400 organismes chargés de l’application de la loi aux Etats-Unis utilisent ses outils.

Leave a Reply

%d bloggers like this: