Internet

Facebook va engager 3 000 personnes pour revoir les vidéos de violence

Vous êtes peut-être tombé sur des vidéos de violence dans votre fil d’actualité Facebook. Ce type de contenu y est tellement présent que l’entreprise a décidé d’agir : 3 000 employés seront embauchés dans les mois à venir juste pour filtrer les postes inappropriés. L’annonce a été faite ce mercredi (3) par Mark Zuckerberg lui-même.

Cette décision est probablement liée à la promesse faite par Facebook le mois dernier de supprimer rapidement les vidéos violentes. Bien que le problème soit ancien, l’entreprise a été fortement critiquée pour ne pas avoir agi rapidement contre ce type de contenu après qu’un homme ait tué un homme de 74 ans aux États-Unis et ait publié la vidéo d’action sur Facebook.

La principale critique concerne le temps que prend le service pour analyser un contenu suspect et ensuite exécuter l’action appropriée. Selon M. Zuckerberg, les 3 000 nouveaux employés sont embauchés précisément pour accélérer les processus de révision. Ils rejoindront une équipe mondiale de 4 500 personnes qui s’en occupent déjà.

  Google Chrome aura des onglets et un clavier prenant en charge le toucher et la pause

M. Zuckerberg a également expliqué qu’en plus des vidéos, les examinateurs travaillent à la suppression de tout contenu lié à d’autres violations des conditions d’utilisation du réseau social, comme les discours de haine et l’exploitation des enfants.

La meilleure façon pour Facebook de découvrir un contenu inapproprié est de recevoir des rapports des utilisateurs. Le problème est, comme nous l’expliquons ici, que la procédure de déclaration d’un poste est plus laborieuse qu’elle ne devrait l’être.

C’est pourquoi M. Zuckerberg a souligné que les réseaux sociaux simplifieront les moyens de signalement et a insisté sur l’importance de les analyser rapidement : c’est grâce à un avertissement la semaine dernière que Facebook a pu prévenir les autorités et empêcher un utilisateur de se suicider.

Ces mesures sont certainement les bienvenues, mais elles pourraient ne pas suffire en raison du nombre considérable d’utilisateurs du réseau social. C’est pourquoi, en plus de l’analyse humaine, Facebook développe des outils pour filtrer automatiquement les contenus nuisibles. Mais c’est aussi une tâche délicate : les algorithmes ne peuvent toujours pas détecter toutes sortes de contenus interdits, et pire encore, ils peuvent bloquer les messages légitimes.

  Les nouveaux paramètres de confidentialité sur Facebook suscitent la controverse

Néanmoins, la meilleure approche semble même être de combiner l’examen humain avec le filtrage automatique : Facebook l’a déjà fait, par exemple, pour freiner la pornographie dite de vengeance, autre problème sérieux sur le réseau social.

A propos de l'auteur

Ronan

Le Breton de l'équipe ! Développeur back-end dans une startup française. Internet des objets, domotiques, mes sujets de prédilection sont vastes. #teamLinux sur PerlmOl

Laisser un commentaire