L’Europe dévoile sa grande stratégie en matière d’intelligence artificielle

Spread the love
  • Yum

L'Europe dévoile sa grande stratégie en matière d'intelligence artificielle

Alors que les Etats-Unis et la Chine s’efforcent de tirer parti des avantages de l’intelligence artificielle, l’Union européenne ne veut pas être laissée pour compte. Elle a donc dévoilé aujourd’hui sa nouvelle approche de l’économie numérique, avec une nouvelle « stratégie pour façonner l’avenir numérique de l’Europe ».

Au-delà de cette description générale, les objectifs de cette stratégie sont spécifiques : établir des règles sur les données et l’intelligence artificielle qui sont typiquement européennes – une réglementation qui « met les gens au premier plan » et favorise une « technologie digne de confiance ».

Dans un livre blanc sur l’intelligence artificielle publié ce mercredi, la Commission européenne a souligné sa volonté de faire de cette technologie une « force du bien » et non une force qui nuira aux citoyens.

Le document décrit les risques inhérents à l’utilisation de l’intelligence artificielle « pour suivre et analyser les habitudes quotidiennes des gens », et le potentiel pour les autorités étatiques d’exploiter la technologie pour la surveillance de masse.

Bien que le document ne mentionne pas de nom et de cas, les risques mentionnés par la Commission rappellent les récentes nouvelles en provenance des Etats-Unis, où le mois dernier un procès a été intenté contre la start-up new-yorkaise Clearview AI, après qu’on a découvert que l’entreprise vendait des informations arrachées aux médias sociaux à des organismes d’application de la loi dans tout le pays.

Clearview AI a rassemblé des photos sans le consentement des citoyens – trois milliards de photos plus exactement – qui ont été prises sur des sites comme Facebook, Twitter, YouTube et d’autres.

publicité

Contre les dérives de la reconnaissance faciale

En ce qui concerne l’autre grand concurrent technologique de l’UE, la Chine, il est tout aussi facile de pointer du doigt. Le gouvernement chinois utilise la reconnaissance faciale depuis longtemps, et souvent au détriment de ses citoyens. Récemment, par exemple, on a découvert que les autorités avaient mis en place des systèmes pour enregistrer des images biométriques en trois dimensions, ainsi que les empreintes digitales des smartphones de musulmans vivant dans la province du Xinjiang, afin de suivre leurs mouvements.

L’Union européenne tient à ce que ce type d’application ne soit pas autorisé. « Je veux que l’Europe numérique reflète le meilleur de l’Europe – ouverte, juste, diverse, démocratique et confiante », a déclaré Ursula von der Leyen, la présidente de la Commission.

Pour atteindre cet objectif, la Commission veut créer un « écosystème de confiance » pour l’IA. Et cela commence par un point d’interrogation sur la reconnaissance faciale. L’organisation a déclaré qu’elle envisageait d’interdire complètement cette technologie. Les commissaires envisagent de lancer un débat sur « les circonstances qui pourraient justifier l’utilisation de la reconnaissance faciale ».

Le livre blanc de l’UE suggère également d’avoir des règles différentes, selon le lieu et la manière dont un système d’IA est utilisé. Un système à haut risque est un système utilisé dans un secteur critique, comme les soins et la santé, les transports ou la police, pour un usage sensible. Ces systèmes à haut risque devraient être soumis à des règles plus strictes, déclare la Commission, afin de garantir que la demande ne transgresse pas les droits fondamentaux en rendant des décisions biaisées.

Un livre blanc trop rapidement rédigé ?

De la même manière que les produits et services entrant sur le marché européen sont soumis à des contrôles de sécurité, les applications utilisant l’IA devraient être contrôlées pour vérifier qu’elles ne sont pas biaisées, affirme la Commission. L’ensemble de données alimentant l’algorithme pourrait devoir passer par des évaluations de conformité par exemple. Pour les applications d’IA à faible risque, la Commission suggère un système d’étiquetage volontaire basé sur des critères de référence définis par l’UE, qui rassurerait les citoyens quant à la “fiabilité” d’un système d’IA donné.

Mark Coeckelbergh est membre du groupe d’experts de haut niveau sur l’intelligence artificielle nommé par la Commission européenne pour élaborer des recommandations pour le déploiement éthique de l’IA. Il a déclaré à ZDNet que la volonté de la Commission de faire de l’IA éthique une priorité est encourageante, mais que cette initiative est peut-être venue trop tôt.

« Je ne suis pas sûr de la vitesse à laquelle cela va se faire », explique-t-il. « Les commissaires n’ont pas attendu que le groupe d’experts ait terminé son travail, et nous ne voyons donc pas beaucoup de nos contributions dans ce plan. Parce qu’il est sorti très tôt, il semble plutôt léger, et il y a beaucoup de possibilités d’interprétation. D’un point de vue éthique, je n’en suis pas très satisfait ». Le groupe d’experts, a-t-il poursuivi, publiera ses recommandations en mai ou juin et Mark Coeckelbergh estime que la Commission aurait pu tirer profit de beaucoup de choses en attendant quelques mois.

Avec les 51 autres membres des milieux universitaires, de la société civile et de l’industrie qui composent le groupe d’experts de haut niveau, Mark Coeckelbergh travaille effectivement à l’élaboration de lignes directrices plus détaillées et adaptées à chaque secteur, et fait le lien entre les défenseurs d’une réglementation plus stricte et ceux qui sont en faveur de la flexibilité. Selon lui, ce que la Commission définit comme des « systèmes d’IA à haut risque », par exemple, n’est pas aussi clair que le livre blanc le laisse entendre. Beaucoup de logiciels d’IA fonctionnent dans plusieurs secteurs, a-t-il soutenu, et n’ont pas un résultat unique dans un domaine spécifique.

« Nous avons besoin d’un cadre réglementaire qui soit plus solide et qui couvre plus de domaines », ajoute-t-il. « Ce document aurait pu être rédigé il y a un an – il n’inclut pas le travail détaillé que nous avons effectué de notre côté. Il ne me donne pas la certitude qu’il y aura une réglementation efficace sur le plan éthique. »

La raison pour laquelle l’Europe a tenu à annoncer rapidement sa position sur l’IA est peut-être d’ordre géopolitique. En effet, elle est en retard par rapport à ses homologues américains et chinois depuis plusieurs années en ce qui concerne le développement des technologies de l’IA – et la nouvelle stratégie de la Commission est un moyen de faire savoir que le Vieux Continent est toujours d’actualité.

20 milliards d’euros investis chaque année dans l’IA

Des recherches récentes ont montré que moins de la moitié des entreprises européennes ont adopté la technologie de l’IA, et que seules quatre entreprises européennes figurent parmi les 100 meilleures start-up mondiales dans ce domaine. En Europe, « le rythme de la diffusion et des investissements en matière d’IA reste limité », notent les analystes de la société de recherche McKinsey.

Le document de la Commission reconnaît la nécessité de rattraper le retard, notant que les 3,2 milliards d’euros investis dans l’IA en Europe depuis 2016 ne représentent « encore qu’une fraction » des investissements dans les autres régions du monde. En Amérique du Nord, la somme investie au cours de la même période s’élève à 12,1 milliards d’euros.

L’objectif annoncé est d’attirer plus de 20 milliards d’euros d’investissements totaux par an dans l’IA au cours de la prochaine décennie. « L’Europe est performante en matière de recherche et d’innovation, mais elle n’est pas douée pour traduire ces résultats en produits destinés au marché », explique Mark Coeckelbergh. « On a le sentiment qu’il faut faire quelque chose ». Sur une note plus positive, il note que le travail de la Commission montre la voie à suivre et que les investissements dans l’IA doivent aller de pair avec un cadre éthique.

Le livre blanc sur l’intelligence artificielle est ouvert à la consultation publique jusqu’au 19 mai 2020, après quoi la Commission « prendra de nouvelles mesures pour soutenir le développement d’une intelligence artificielle digne de confiance ».

Source : ZDNet.com

Leave a Reply

Your email address will not be published. Required fields are marked *