Le deepfake, contraction des termes « deep learning » (« apprentissage profond ») et « fake » (« truqué »), est une technique de synthèse d’images ou de sons, basée sur l’intelligence artificielle.
Ce terme qualifie généralement de fausses vidéos, hyper réalistes, qui permettent de faire dire ou faire n’importe quoi… à n’importe qui !
Une manipulation d’un nouveau genre
De Barack Obama traitant Donald Trump de « conn*rd » à Emma Watson jouant dans un film porno… tout ceci ne s’est jamais produit dans la réalité et pourtant, c’est bel et bien ce que des vidéos ont failli nous faire croire !
Pour mieux comprendre le phénomène et la dangerosité du deepfake, le site BuzzFeed a produit cette vidéo mettant en scène un discours de Barack Obama, plus vrai que nature, dont les propos ne sont pourtant jamais sortis de sa bouche. Regardez, c’est bluffant !
Comme Barack Obama, les chefs d’États, les célébrités, mais aussi les gens du commun sont susceptibles de détournement.
Mais alors, le deepfake, comment ça marche ?
La technique de trucage vidéo s’appuie sur l’intelligence artificielle et permet de transposer le style d’une vidéo à une autre, ou d’un son à un autre, sans en altérer sa qualité ni sa composition d’origine. En combinant et superposant les images de vidéos ou les sons, on manipule le contenu via l’apprentissage automatique de l’outil.
Les chercheurs de l’université Carnegie Mellon ont perfectionné le procédé afin de pouvoir transposer les expressions faciales d’une vidéo à une autre, permettant de faire dire tout et n’importe quoi à qui on veut :
L’intelligence artificielle superpose ici l’image d’une personne sur celle de quelqu’un d’autre. Les algorithmes sont capables de récupérer le contenu d’une vidéo et de l’appliquer à une autre sans en altérer le style ou la qualité. Les mouvements du visage et de la bouche sont précisément calqués sur le visage d’un autre, et le procédé peut s’appliquer à d’autres éléments comme les fleurs ou les paysages ! Ainsi, dans cette démonstration, on peut voir le clonage d’un discours de Marthin Luther King transposé dans la bouche d’Obama, puis dans celle de Trump…
Comment ça marche ? Attention, l’explication est un peu technique.
Le site FuturaTech explique : « Pour réaliser ce trucage vidéo bluffant, les chercheurs ont créé des réseaux antagonistes génératifs (en anglais, generative adversarial networks ou GANs). Il s’agit de deux algorithmes d’apprentissage non supervisé qui sont mis en compétition l’un contre l’autre. Le premier réseau est un générateur qui va créer une copie du style d’une vidéo. Le second réseau est un discriminateur qui examine le contenu produit en le comparant à l’original et évalue sa cohérence. Mais les chercheurs sont allés plus loin en créant un Recycle-GAN, qui analyse les changements visuels non seulement d’un point de vue spatial mais aussi temporel. Cette couche supplémentaire d’informations contribue à réduire les options pour conserver les meilleurs résultats possibles. »
Les usages et dérives d’un deepfake
On peut imaginer beaucoup d’usages dans la production de films (animation anthropomorphique…) – d’ailleurs la technique a déjà été utilisée dans le porno pour produire des vidéos utilisant le visage de célébrités à leur insu (Daisy Ridley, aka Rey dans Star Wars, la journaliste indienne Rana Ayyub, Emma Watson comme on le disait plus haut, et bien d’autres)… Bien sûr, comme n’importe quel outil, il peut en ressortir du positif : on utilise par exemple la même technique pour apprendre aux voitures autonomes à conduire de nuit, en transposant des dangers identifiés de jour.
Malgré son incroyable potentiel, la technologie inquiète beaucoup.
D’abord, le revenge porn est une dérive très possible : imaginez qu’on veuille vous faire chanter avec une vidéo coquine, il suffirait de transposer votre visage sur celui d’un(e) autre…
Ensuite, il y a un risque énorme de manipulation de l’information (encore plus que d’habitude, oui). Chantage, campagnes de désinformation, fausses consignes de vote, altération de discours. Autant de questions qui relèvent de la sécurité nationale !
Une puissance étrangère pourrait ainsi facilement manipuler l’information et les élections. Pire encore, que se passerait-il si un chef d’État déclarait la guerre à un pays dans l’une de ces vidéos ? Entre les mains de personnes malveillantes, le deepfake constitue une véritable bombe politique, qui pourrait déstabiliser des pays entiers.
Les institutions tentent de s’en protéger
La menace est prise très au sérieux ! La Défense américaine, notamment, finance des projets de recherche pour détecter ces fausses vidéos, mais tous les internautes devront être vigilants…
Du coté des réseaux sociaux, Facebook et les géants du web investissent en technologie et en moyens humains pour lutter contre le phénomène. Les vidéos peuvent être signalées comme fausses par les utilisateurs et être ensuite analysées par les journalistes qui collaborent avec Facebook. Twitter et Tumblr ont également interdit ces images truquées.
Plus généralement, toutes les organisations d’importance se saisissent du problème, les unes après les autres. Avec la montée en puissance des IA comme ChatGPT, Midjourney ou encore VALL-E, il est effectivement plus que temps de s’en inquiéter.
Quelques clefs pour reconnaître un deepfake
La détection des deepfakes est très difficile, spécialement pour un œil non averti ; quelques signes permettent toutefois de les reconnaître (à condition de bien les chercher…).
L’Université de l’État de New York a développé un algorithme capable de repérer 95 % des deepfakes analysés. L’intelligence artificielle a besoin de beaucoup de photos de la célébrité concernée pour reproduire son visage, y compris de photos où les yeux sont fermés, ce qui est plus rare. Or, cela pose quelques problèmes au niveau des clignements des yeux qui ne sont pas toujours correctement synchronisés ou pas très naturels.
On peut aussi regarder du côté de la synchronisation entre la bouche et les mots, ou du lien entre le visage et le décor. Mais nul doute que ces défauts ne tarderont pas être corrigés…
La meilleure arme face à ce genre de trucages reste votre vigilance. Si une relation vous envoie une vidéo et que vous avez envie de croire à son contenu, vous risquez sans aucun doute de tomber dans le piège. La meilleure réponse à ce phénomène reste donc l’éducation publique.