Mobile

Facebook demande aux modérateurs de ne pas supprimer certains messages d’abus et de violence envers les enfants

Facebook a des règles secrètes pour modérer les contenus offensants, mais elles ne sont pas toujours respectées à la lettre. Une enquête a révélé que le réseau social préfère ne pas supprimer plusieurs messages promouvant la violence, les abus sur les enfants et le racisme.

La chaîne britannique Channel 4 a mis un journaliste sous couverture au service de CPL Resources pendant sept semaines. Elle est l’une des sous-traitantes qui modèrent le contenu de Facebook et fournit des services au réseau social depuis 2010.

La vidéo sur les abus envers les enfants est signalée mais n’est pas retirée

Il a découvert qu’une vidéo d’un garçon battu et piétiné continue sur Facebook, mais avec l’avertissement que c’est “perturbant”. Le contenu a été signalé en 2012 par Nicci Astin, qui fait campagne en ligne contre la maltraitance des enfants. À l’époque, le réseau social a déclaré qu’il ne violait pas leurs conditions d’utilisation.

  Android Q supportera des actions 3D de type tactile sur l'iPhone

Le vice-président de la politique mondiale de Facebook, Richard Allen, déclare : “Cela n’aurait pas dû être là, le matériel aurait dû être retiré. Toutefois, Business Insider a pu trouver une version de la vidéo sur la plateforme.

Un autre exemple est le mème raciste d’une fille noyée dans une baignoire, avec la légende : “quand le premier béguin de votre fille est un garçon noir”.

Les modérateurs ont trois possibilités pour examiner les messages : les ignorer, les supprimer ou les marquer comme étant dérangeants. Dans ce cas, ils ont pour consigne de ne pas en tenir compte, car “pour justifier une violation réelle, il faut passer par de nombreux obstacles”.

De plus, certaines pages restent à l’antenne même si elles violent à plusieurs reprises les conditions de Facebook. Les pages de groupes d’extrême droite comme Britain First et English Defence League ont envoyé plus de 5 messages avec des violations de contenu, mais elles n’ont pas été supprimées car elles avaient trop d’adeptes.

  L'application WhatsApp sera interdite aux mineurs de moins de 16 ans en Europe

Un contenu extrême pour attirer les utilisateurs

Il n’est pas surprenant que Facebook passe à côté de contenus douteux. Roger McNamee, l’un de ses premiers investisseurs, estime que c’est une bonne chose.

“C’est le contenu vraiment extrême et dangereux qui attire les personnes les plus engagées sur la plateforme”, dit-il à Channel 4, “Facebook a trouvé souhaitable que les gens passent plus de temps sur le site parce que leur activité est basée sur la publicité.

De plus, “Facebook a appris que les personnes aux extrêmes sont vraiment précieuses car elles peuvent souvent provoquer 50 ou 100 autres personnes”, explique McNamee. Et un membre de CPL Resources dit au journaliste en civil que “si vous commencez à trop censurer, les gens perdent tout intérêt pour la plateforme.

Allan, de Facebook, n’est pas d’accord : “Un contenu choquant ne nous fait pas gagner plus d’argent ? c’est juste un malentendu sur le fonctionnement du système… la grande majorité des 2 milliards d’utilisateurs ne rêverait jamais de partager un tel contenu, pour choquer et offenser les gens.

  Android Pie est compatible avec le contrôle de la Xbox One

Facebook dit à la BBC que les fonctionnaires de la CPL ont été “recyclés”, tout comme les autres modérateurs dans le monde. L’entreprise réitère sa promesse de porter à 20 000 le nombre de ses propres modérateurs et de ceux qui sont externalisés d’ici la fin de l’année. Actuellement, c’est 15 000.

A propos de l'auteur

Zineb

Enseignante en lycée, je m'intéresse à tout ce qui touche aux nouvelles technologies. #teamMac sur PerlmOl (je ne me sépare d'ailleurs jamais non plus de mon Iphone).

Laisser un commentaire