Vous souvenez-vous de Retour vers le futur* ? La voiture, la musique, et au centre de tout cela, le duo emblématique de Robert Downey Jr. et Tom Holland dans les rôles de Doc Brown et Marty McFly. Bien sûr, vous ne vous souvenez pas de cette dernière partie. En fait, Tom Holland n'était même pas né lorsque Retour vers le futur est sorti en 1985.
Mais vous pouvez voir ce casting alternatif dans l'une des centaines de vidéos « deepfake » qui ont fleuri sur Internet ces deux dernières années. Grâce à la technologie du deepfaking, ces vidéos peuvent transposer des acteurs dans des films dans lesquels ils n'ont jamais joué, ou des célébrités dans des interviews qui n'ont jamais eu lieu, avec une précision étonnante. Les conséquences des deepfakes suscitent de plus en plus d'inquiétude. Dans quelle mesure cette crainte est-elle justifiée ? Et que pouvons-nous faire pour y remédier ?
Que sont les deepfakes ? Devons-nous nous en inquiéter ?
Les deepfakes s'appuient sur une technologie appelée « réseaux adversatifs génératifs » (GAN). Un réseau adversatif est composé de deux réseaux neuronaux, l'un appelé générateur et l'autre discriminateur.
Tout d'abord, le générateur prend en entrée la photo d'une personne, puis essaie de générer une deuxième photo, similaire mais différente de la photo fournie. Cette photo est ensuite transmise au réseau discriminateur qui tente de comprendre si l'entrée fournie est authentique ou fausse, d'où le nom d'adversatif : chaque réseau essaie de tromper l'autre.
Plus les deux réseaux s'entraînent, plus ils parviennent à générer de fausses images qui ressemblent aux vraies. Finalement, une image impossible à distinguer (du moins pour le réseau discriminant) des photographies réelles de cette personne est créée. Un deepfake est né. C'est ainsi que vous pouvez obtenir une vidéo du PDG de Facebook, Mark Zuckerberg, vendant des traitements de dialyse frauduleux, ou menaçant de façon comique de conquérir le monde.
Mais pour certains critiques, ces vidéos sont des rires dans l'obscurité. La capacité de créer des représentations presque totalement convaincantes et réalistes pourrait, selon eux, avoir des conséquences effrayantes dans de nombreux domaines de la vie.
Les vidéos Deepfake pourraient mettre des mots incriminants dans la bouche des politiciens ou créer l'opportunité pour les politiciens de nier leurs paroles ou actions réelles sous prétexte qu'elles ont été truquées. Il y a également un potentiel de fraude important. Si les gens peuvent être convaincus par un courriel d'hameçonnage provenant d'une personne se faisant passer pour leur banque et demandant un transfert d'argent, combien plus convaincant serait l'appel vidéo d'un collègue ou d'un parent ? L'agence de police européenne Europol a recommandé dans un rapport que les autorités chargées de l'application de la loi s'impliquent sérieusement dans le développement des technologies permettant de détecter l'utilisation malveillante des deepfakes.
Le risque s'applique également au sinistre monde de la pornographie sur internet, où des célébrités et d'autres personnes peuvent être insérées numériquement dans un contenu explicite sans leur consentement. En septembre 2019, près de 96 % des deepfakes étaient déployés dans la pornographie, selon un rapport de DeepTrace.
Certains soulignent toutefois que la menace pourrait être moins grande qu'il n'y paraît. La manipulation de photos existe depuis 1860 et la suppression, pour des raisons politiques, d'ennemis politiques purgés sur des photographies officielles a été largement utilisée en Union soviétique sous Joseph Staline. En 2004 encore, une photographie trafiquée de John Kerry a été publiée dans le New York Times*, pendant la course à la présidence de cette année-là. De plus, il est possible de mentir dans la presse écrite depuis qu'elle existe. Ainsi, selon les sceptiques, il ne s'agit que d'une technologie de plus avec laquelle nous devrons apprendre à vivre.
Repérer les faux
Malgré cette assurance, il est compréhensible que de nombreuses personnes se sentiraient plus en sécurité s'il existait des moyens technologiques infaillibles de distinguer un deepfake du vrai. Et en effet, la recherche se poursuit sur ce point. Ce que l'IA peut faire, elle peut aider à le défaire.
Par exemple, la société Zeff, spécialisée dans l'IA, est une des entreprises qui cherchent à ce que les systèmes de détection de l'IA gardent une longueur d'avance. Au départ, l'un des signes révélateurs d'un deepfake était un clignement d'yeux anormal. Cependant, une fois que les modèles de clignement ont été identifiés, des correctifs ont été incorporés dans les solutions deepfake : ils clignent maintenant comme de vraies personnes.
En réponse, Zeff est passé à l'utilisation de l'IA pour examiner le flux sanguin sous la peau, ce que les deepfakes ne peuvent toujours pas reproduire correctement. Cependant, lors d'un entretien dans le podcast Intel on AI, le directeur des données de Zeff, Ben Taylor, s'est montré pragmatique quant à la viabilité à long terme de la solution, reconnaissant le caractère imprévisible du domaine. « C'est un problème de poteau de but mobile. Quelle que soit la bonne idée que l'on aura, quelqu'un pourra donc s'en servir pour améliorer les deepfakes ».
Une autre solution consiste à ajouter aux photographies des couches numériques qui les rendent inutilisables pour la génération de deepfakes, ce qui prive ces derniers de leur carburant. Par exemple, des chercheurs indépendants ont développé une couche algorithmique qui peut être codée dans une image. Si le code détecte que quelqu'un essaie d'utiliser l'image pour un deepfake, il la déformera ensuite pour la rendre méconnaissable.
On ne sait pas encore si le risque posé par les deepfakes va s'accroître. Il se peut que nous apprenions à vivre avec eux, ou que la technologie facilite leur détection. Mais la position la plus sûre à adopter est peut-être celle du directeur de la technologie de Facebook*, Mike Schroepfer : « Je veux être vraiment préparé à beaucoup de mauvaises choses qui n'arrivent jamais, plutôt que l'inverse ».