Internet

Facebook explique le fonctionnement des examinateurs de contenu

Facebook a investi pour combattre les messages qui violent les politiques de réseautage social, comme les contenus qui encouragent les discours haineux, la pornographie, le spam et les fausses nouvelles. Pour ce faire, l’entreprise a presque doublé son équipe de modérateurs humains cette année, formant un groupe de 7 500 personnes, y compris ses propres employés et ceux de l’extérieur. Mais qui sont ces êtres, où vivent-ils et comment se reproduisent-ils ?

La société a expliqué (presque) tout cela jeudi (26). Aucun détail très précis n’a été révélé pour des raisons de sécurité, selon Facebook, montrant comme exemple le cas du tireur qui a pénétré par effraction dans le bâtiment YouTube en Californie en avril. Mais nous avons quelques informations : l’équipe couvre tous les fuseaux horaires, comprend plus de 50 langues et fait l’objet d’un audit hebdomadaire.

Pour évaluer les publications, vous devez avoir des locuteurs d’une langue à tout moment. Facebook affirme que “si quelqu’un signale un message en langue tagalog au milieu de la nuit aux Philippines, par exemple, il y aura toujours un réviseur parlant tagalog, localement ou basé sur un autre fuseau horaire, à qui le rapport peut être transmis pour un examen rapide”. L’exception concerne des cas tels que la nudité, où le rapport peut être transmis à n’importe quel examinateur.

  Yahoo calcule 2 quadrillions de chiffres de Pi et bat le record

Selon Facebook, “ce poste n’est pas pour tout le monde, nous recherchons donc des candidats qui, selon nous, peuvent gérer des images violentes ou perturbatrices”. La sélection consiste à déterminer si un traumatisme du passé peut être déclenché par le travail (ce qui me rappelle un entretien avec un réviseur de contenu de Google qui a vu jusqu’à 15 000 images “sensibles” par jour). Ces employés ont donc également accès à une équipe de psychologues qui peuvent les aider.

Mais comment s’assurer que l’évaluation est équitable ? Facebook dit qu’il essaie de “garder les opinions personnelles et les préjugés hors de l’équation”. Comme ce n’est pas toujours possible, la solution consiste à maintenir les politiques claires et à les mettre à jour, et à vérifier une partie des décisions de chaque examinateur pour savoir où les erreurs ont été commises. Les auditeurs sont également régulièrement contrôlés selon l’entreprise.

La critique de la modération devrait continuer à exister (avez-vous également signalé des contenus qui violent les règles de Facebook et qui n’ont pas été retirés de l’antenne ?), mais la société affirme qu'”il n’y a jamais eu de plateforme où autant de personnes communiquent dans autant de langues différentes dans autant de pays et de cultures différentes”, déclarant qu’elle “reconnaît l’énormité de ce défi et la responsabilité de faire les bonnes choses”.

  Facebook : un demi-milliard d'utilisateurs !

A propos de l'auteur

Ronan

Le Breton de l'équipe ! Développeur back-end dans une startup française. Internet des objets, domotiques, mes sujets de prédilection sont vastes. #teamLinux sur PerlmOl

Laisser un commentaire