Internet

Twitter et PornHub interdisent le porno avec des visages de célébrités

La mode bizarre des fausses vidéos pornographiques avec des célébrités a tellement augmenté que de nombreux services en ligne agissent déjà : après Reddit, c’est au tour de Twitter d’interdire ce type de publication. Les plateformes de contenu pour adultes devraient suivre la même voie. PornHub, par exemple, a déjà fait savoir qu’il ne laisserait pas de place aux deepfakes, comme on appelle cette pratique.

Mettre des visages de célébrités sur le corps des actrices dans les scènes de films pornographiques n’est pas une idée récente. Mais cela demande beaucoup de connaissances en matière de montage vidéo. Ou alors, tout a changé en décembre 2017, lorsqu’un utilisateur de Reddit qui s’identifie comme un deepfakes a découvert qu’il était possible d’utiliser des outils de intelligence artificielle comme Keras et TensorFlow (de Google) pour modifier les visages dans les vidéos sans grand effort.

Les vidéos modifiées par l’intelligence artificielle sont désormais appelées “deepfakes”. La plupart du temps, les résultats sont impressionnants. Il n’a pas fallu longtemps pour que de telles applications voient le jour, en particulier les FakeApp. C’est là que tout s’est écroulé : la quantité de vidéos pornographiques faussement mises en vedette par des noms célèbres comme Taylor Swift, Gal Gadot, Selena Gomez et Ariana Grande a été tournée.

  Instagram met à jour l'interface de l'application dédiée à l'IGTV

La semaine dernière, Reddit a commencé à supprimer des vidéos de ce type, bien qu’il soit encore possible d’en trouver beaucoup sur place. Les services d’hébergement d’images comme Gfycat font la même chose.

Il est évident que les deepfakes allaient aussi atteindre PornHub, après tout, c’est l’un des plus grands sites pornographiques du monde. Toutefois, la plateforme interdit la publication de contenus non consensuels et comprend que les deepfakes entrent dans cette catégorie. Elle a donc clairement indiqué qu’elle ne fermerait pas les yeux sur eux.

Les principaux réseaux sociaux interdisent la diffusion de contenus pornographiques, c’est pourquoi les vidéos modifiées y apparaissent davantage comme une blague : la blague qui a le plus retenu l’attention a été de mettre le visage de l’acteur Nicolas Cage dans plusieurs vidéos.

Mais Twitter est l’exception. La plate-forme est plus tolérante en ce qui concerne les contenus érotiques et autres. La conséquence est que les deepfakes y ont également gagné en force. Mais pas pour longtemps : le service a confirmé qu’il allait interdire ce type de contenu. Les comptes qui enfreignent la règle peuvent être suspendus.

  Facebook a sauvé des vidéos que les utilisateurs pensaient avoir supprimées il y a des années

C’est compréhensible. Bien que les États-Unis et d’autres pays n’aient pas de législation spécifique pour les deepfakes (après tout, c’est une tendance récente), les vidéos modifiées sont généralement protégées par des droits d’auteur. En outre, les personnes qui se sentent lésées peuvent engager des poursuites judiciaires. Comme il est difficile d’identifier les responsables, ce sont les plateformes qui peuvent être tenues pour responsables.

A propos de l'auteur

Bernard

Actuellement responsable informatique dans une PME, je bosse dans le domaine depuis une vingtaine d'année maintenant. Fan inconditionnel de DBZ, et de la triologie Die Hard. #teamWindows sur Perlmol !

Laisser un commentaire