Les détecteurs de deepfakes sont trop facilement manipulables selon une étude

Spread the love
  • Yum

Ces dernières semaines, les deepfakes ont fait beaucoup parler d’elles, avec notamment un Tom Cruise plus vrai que nature sur TikTok. Pour rappel, il s’agit de techniques permettant de créer de fausses vidéos ou extraits vocaux très réalistes, et de faire dire à quelqu’un des propos qu’il n’a pas tenus. Pour contrer ces détournements, des détecteurs ont été développés mais leur efficacité est de plus en plus remise en cause.

Des failles ont déjà été relevées par le passé

Cela a notamment été le cas de la Winter Conference on Applications of Computer Vision (WACV) qui s’est déroulée en ligne du 5 au 9 janvier dernier. À cette occasion, des chercheurs de l’université de San Diego ont réussi à démontrer que ces systèmes avaient un point faible. Concrètement, ils ont utilisé des « exemples contradictoires » afin de tromper l’intelligence artificielle. Ces légères modifications induisent le détecteur en erreur, lui qui s’appuie sur des éléments du visage qui sont habituellement suspects dans ces détournements.

«Nos travaux montrent que les attaques contre les détecteurs deepfake pourraient être une menace réelle», explique Shehzeen Hussain, un scientifique de l’Université de San Diego qui a co-écrit cette étude. «Plus alarmant encore, nous démontrons qu’il est possible de créer des deepfakes antagonistes robustes même lorsqu’un adversaire peut ne pas être conscient du fonctionnement interne du modèle d’apprentissage automatique utilisé par le détecteur », poursuit-il.

Les résultats sont clairement impressionnants et dépendent des scénarios testés. Lorsque les attaquants ont un accès complet au modèle du détecteur, le taux de réussite est de 99 %. S’ils n’ont pas accès au modèle d’apprentissage de la machine, le niveau tombe à 86,5 % mais reste très élevé.

Fort de ce constat, les chercheurs préconisent d’entraîner les IA de détection aux stratégies mise en place par les fraudeurs. Le détecteur serait continuellement mis à jour et donc mieux armé pour lutter contre ces manipulations.

Pour rappel, ce n’est pas la première fois que ces systèmes sont remis en cause. En juin dernier, nous revenions déjà sur les failles de ces détecteurs de deepfakes. Ainsi, les dispositifs les plus performants ont du mal à passer les 70% de réussite.

Leave a Reply

%d bloggers like this: