Un outil de montage vidéo créé par un utilisateur de Reddit a été une source de maux de tête énorme pour les célébrités, les personnes publiques et les sociétés de divertissement. L’outil Deep Fake utilise l’intelligence artificielle pour changer le visage des gens dans les vidéos, avec le droit de synchroniser les mouvements des lèvres, les expressions et tout le reste, dans certains cas avec des résultats impressionnants et très convaincants.
Cependant, personne n’est à l’abri de voir son visage figurer dans une vidéo montée.
Sommaire
Qu’est-ce que Deep Fake ?
La vague de échangeant les visages des gens dans des vidéos n’est pas nouvelle. Mais en décembre 2017, un utilisateur de Reddit appelé deepfakes a fait un pas de plus. Avec des outils tels que l’intelligence artificielle et l’apprentissage machine, comme Keras et TensorFlow, il a créé un algorithme pour entraîner un réseau neuronal à cartographier le visage d’une personne sur le corps d’une autre, image par image.
Au lieu de se fier à l’édition manuelle comme par le passé, l’utilisateur, grâce à l’outil (qui a été nommé Deep Fake), n’a besoin que d’une seule police pour reconnaître le modèle du visage de la “victime”, cartographier la structure de la tête-destination et faire le chevauchement. Le logiciel est capable d’adapter le mouvement de la vidéo originale au nouveau visage, ce qui inclut les expressions faciales et les mouvements des lèvres.
Au début, Deep Fake nécessitait des connaissances avancées de la part des utilisateurs, mais lorsque d’autres ont créé des applications capables d’automatiser l’ensemble du processus, l’outil a été massivement utilisé pour le mal : a rapidement commencé à émerger des dizaines de vidéos pour adultes montées avec le logiciel, “interprétées” par des actrices et des artistes comme Gal Gadot, Taylor Swift, Selena Gomez, Ariana Grande, Emma Watson, Maisie Williams, Scarlett Johansson, Daisy Ridley, etc. Des noms qui ne font évidemment pas de films de ce type/genre.
La qualité moyenne de la vidéo n’étant pas très élevée, compte tenu des exigences matérielles (il faut au moins une GeForce GTX 1050 pour obtenir des résultats acceptables), de telles créations sont assez convaincantes pour une personne non avertie, qui pensera qu’il s’agit d’une vraie vidéo, même si elles ont un défaut : les protagonistes ne clignent pratiquement pas des yeux.
La “blague” de Deep Fake ne s’est cependant pas limitée aux vidéos pour adultes : il existe un certain nombre de créations qui placent des visages de célébrités dans des films où elles n’étaient pas présentes, comme l’acteur Nicolas Cage. Cependant, les possibilités d’utilisation du logiciel sont nombreuses et, pour ainsi dire, nuisibles.
Jusqu’à ce que Mark Zuckerberg soit la cible d’une fausse vidéo qui disait : ?imaginez un instant : un homme, avec le contrôle total de milliards de données volées, tous ses secrets, ses vies, son avenir. Je dois tout cela à Spectre. Spectre m’a montré que celui qui contrôle les données contrôle l’avenir ?
Spectre est le nom d’une œuvre d’art qui tente d’attirer l’attention sur le risque de manipulation des personnes par le biais des réseaux sociaux. Les Deepfakes ont été réalisés par des politiciens comme Donald Trump, ainsi que par des artistes comme Morgan Freeman et Kim Kardashian.
Comment Deep Fake peut-il m’affecter ?
À bien des égards. Même si la cible principale de la communauté autour de l’outil sont les personnes publiques, rien n’empêche quelqu’un de vraiment mal intentionné de prendre une vidéo d’une personne ordinaire et de la mettre dans une situation délicate.
Ne pensez pas seulement aux vidéos pornographiques montées : il est possible, par exemple, de forger un moment de détente entre amis pour se créer un alibi, une déclaration pour convaincre les autres que vous défendez un certain point de vue ou même une situation criminelle, afin de vous incriminer. Tout dépend de la créativité de l’éditeur et du nombre de ses vidéos facilement accessibles sur Internet.
Deep Fake a déjà été utilisé en politique : le parti socialiste belge, anders (Socialistische Partij, mais différent) a créé une fausse vidéo dans laquelle Donald Trump, le président des États-Unis, demande au peuple du pays de voter pour la démission de l’Accord de Paris, un traité qui régit les politiques climatiques.
Le parti préconise plus de législation environnementale et la fausse vidéo avec Trump était un coup de psychologie inversée : s’il est contre les lois en faveur de la nature, la majorité du public finirait par voter en faveur juste pour le contrer.
Trump heeft een boodschap voor alle Belgen… #Klimaatpetitie pic.twitter.com/Kf7nIaDOKj
? sp.a (@sp_a) 20 mai 2018
Bien sûr, il est facile de voir qu’il s’agit d’une édition, mais imaginez l’utilisateur debout dans le métro en train de regarder ce tweet sur un smartphone moins cher ou de recevoir la vidéo via WhatsApp ou Telegram.
Les partis politiques étant enclins à faire appel à Deep Fake pour nuire à un peuple indiscipliné, l’utiliser contre les citoyens ordinaires est un saut inévitable.
Quelle a été la réaction contre Deep Fake ?
L’Internet et l’industrie du divertissement en général ont déclaré la guerre à cet outil, qui est traité comme de la pornographie de vengeance : de ce point de vue, les utilisateurs qui créent les fausses vidéos et ceux qui les partagent commettraient un crime, puisque l’acte est déjà traité comme tel dans de nombreux endroits, y compris en France.
Il n’a pas fallu longtemps et plusieurs plateformes, de Reddit (qui a atomisé tout le redditing) à Twitter, Discord, Gfycat, Pornhub et plusieurs autres ont commencé à supprimer les vidéos et les messages liés au logiciel, que le matériel soit adulte ou non. Outre l’acte de contrainte, ces productions sont protégées par le droit d’auteur et l’une des principales préoccupations des plateformes est d’éviter les processus.
Et ils ne devraient pas tarder : le syndicat des acteurs d’Hollywood affirme qu’il défendra les droits de ses mandants, y compris légalement contre Deep Fake. Il existe même des mouvements visant à forcer les responsables des vidéos à répondre pénalement dans les cas de productions pour adultes ou impliquant ensemble du matériel pour adultes.
Que puis-je faire pour me protéger ?
La chose la plus sensée à faire est d’éviter de partager des vidéos personnelles avec des personnes que vous ne connaissez pas ou de ne pas les héberger sur des réseaux sociaux de manière publique pour rendre le travail de l’éditeur plus difficile, de prendre votre visage et de le mettre dans une autre vidéo plus compromettante.
Dans l’ensemble, la société continue de s’adapter à Deep Fake parce qu’il s’agit d’une technologie nouvelle et, si elle est mal utilisée, extrêmement nocive. Il est prévu que de nouveaux mécanismes juridiques soient approuvés afin de combattre cette pratique et de protéger les personnes. Par conséquent, si vous avez été victime, rassemblez toutes les informations nécessaires et cherchez un avocat ou le bureau du défenseur public le plus rapidement possible.
