Internet

Facebook teste une fonctionnalité qui utilise des nus pour éviter le porno de vengeance

Ce n’est pas aujourd’hui que Facebook parle de prendre des mesures contre la pornographie dite de vengeance (vengeance pornographique). C’est un travail qui doit vraiment être fait. Les conséquences de l’exposition non consensuelle de l’intimité peuvent être dévastatrices pour les victimes. La dernière arme contre ce problème est un système qui a commencé à être testé en Australie. C’est juste que c’est un peu controversé.

La pornographie de vengeance est un “phénomène” mondial. En Australie, des estimations récentes indiquent qu’une femme sur cinq entre 18 et 45 ans est susceptible de souffrir de ce problème, ce qui explique probablement la décision de Facebook de commencer à faire des tests dans ce pays.

Selon le Royal Melbourne Institute of Technology (RMIT University), les victimes potentielles en Australie comprennent la population indigène, les personnes handicapées et les jeunes de 19 ans. Les hommes sont également susceptibles, mais la proportion de femmes à risque est immensément plus élevée.

  Google Shopping reçoit des modifications et commence à afficher des suggestions de produits

Il est difficile de lutter contre ce problème car, sur les réseaux sociaux, la pornographie de vengeance se répand très rapidement. Lorsqu’une équipe d’examinateurs analyse les rapports, elle peut être en retard. La solution consiste à faire appel à des outils qui empêchent automatiquement la diffusion de ce type de contenu. Mais comment faire ?

La voie la plus triviale est celle de l’intelligence artificielle. Des systèmes de ce type sont déjà utilisés, mais ils ne sont pas encore efficaces. C’est là que l’initiative australienne retient l’attention : l’idée est que la personne elle-même envoie des photos sur Facebook qu’elle considère comme compromettantes, afin que le réseau social bloque ce contenu si un autre utilisateur tente de le publier. Croyez-moi, c’est le plan. Le test est soutenu par l’agence gouvernementale eSafety.

Voici comment cela fonctionne : la personne doit remplir un formulaire sur le site eSafety et ensuite s’envoyer l’image qu’elle craint de voir partagée – comme des nus – via Facebook Messenger (ou Instagram) ; dans l’ordre, elle doit signaler à Facebook que ce contenu a été envoyé sans son consentement ou est malveillant. Au moment où cela sera fait, Facebook aura déjà reçu une notification d’eSafety concernant la préoccupation de cette personne.

  Le co-fondateur de WhatsApp vous suggère à nouveau de supprimer Facebook

Selon Facebook, les images ne sont pas stockées sur les serveurs des réseaux sociaux. Le système utilise le lien et d’autres paramètres pour créer une sorte d’empreinte digitale du contenu. Ainsi, si des copies de la photo (y compris éditées) sont envoyées ultérieurement par un autre utilisateur, la publication sera immédiatement bloquée.

Est-ce que cela fonctionne ? C’est ce que diront les tests. Mais l’idée reste controversée. D’abord parce que les images peuvent même être éliminées, mais elles resteront dans le système des réseaux sociaux pendant un certain temps. De plus, ce n’est qu’après la diffusion de la nouvelle des tests que Facebook a reconnu que les images peuvent être vérifiées par les employés et que l'”empreinte digitale” sera alors générée.

Je veux dire, quelqu’un sur Facebook va voir les nus et autres scènes intimes. Il est donc facile d’imaginer que seules les personnes très préoccupées par la diffusion de ce type de contenu feront appel à la ressource.

  Prétendre à la surprise : les données détruites de Cambridge Analytica continuent de circuler

Même si l’idée est bien acceptée, cela ne fera que faciliter le problème. Les photos utilisées dans les revues pornographiques ont souvent été prises parce que les deux parties étaient d’accord, mais à condition que les enregistrements restent secrets. Mais il y a aussi des cas où des photos ou des images ont été prises sans que la victime ne s’en aperçoive ? alors qu’elle dormait, par exemple. Dans ces circonstances, il est courant qu’une personne ne découvre ce qui s’est passé que lorsqu’il est trop tard.

A propos de l'auteur

Zineb

Enseignante en lycée, je m'intéresse à tout ce qui touche aux nouvelles technologies. #teamMac sur PerlmOl (je ne me sépare d'ailleurs jamais non plus de mon Iphone).

Laisser un commentaire